[image]https://leganerd.com/wp-content/uploads/LEGANERD_035185.jpg[/image]
E’ un dato di fatto che la potenza dei calcolatori va aumentando di anno in anno. Tale aumento va in proporzione alla richiesta di capacità di calcolo per la ricerca scientifica, medica, fisica, meteorologica e allo studio del cosmo.
I supercomputer necessari per effettuare questi calcoli non sono affatto economici, (parliamo di costi in milioni di euro o dollari ammeregani) e considerando queste cifre esagerate è chiaro che ben pochi possono permetterseli.
Allo stesso tempo noi tutti abbiamo a casa un computer (spesso e volentieri più di uno) collegato ad Internet utilizzato per ascoltare musica, guardare porno, magari qualche film di robot o Zombie, scrivere documenti, postare/trollare/bighellonare su :LN: . Per farla breve, tutte attività che utilizzano una bassissima percentuale di risorse della nostra CPU (dal 15 al 40% risorsa più risorsa meno).
[i]Che cos’è il calcolo distribuito[/i]
Con il calcolo distribuito è possibile unire e concentrare le risorse inutilizzate di migliaia (per non dire milioni) di computer da tutto il mondo per ottenere l’enorme potenza di calcolo fondamentale per la ricerca.
La grossa quantità di dati che dovrebbe essere analizzata dai supercomputer viene così spezzettata in piccole applicazioni che vengono poi messe su un server dedicato. Queste applicazioni possono essere scaricate da chiunque abbia il programma necessario per elaborarle, così facendo si possono ottenere migliaia di computer che scaricano, elaborano e rispediscono queste applicazioni rimpiazzando un costosissimo supercomputer, utilizzando soltanto i tempi di “latenza” di processori.
Non ci sono risultati minimi da raggiungere e partecipare ad uno o più progetti non è un impegno vincolante, l’elaborazione dei dati si interrompe quando spegnete il computer e riprende automaticamente dal punto in cui si era fermata quando viene riacceso.
La più grande piattaforma di calcolo distribuito al mondo è [url=http://boinc.berkeley.edu/]BOINC[/url] (Berkeley Open Infrastructure for Network Computing OPEN INFRASTRUCTURE FOR NETWORK COMPUTING), sviluppata dai ricercatori del progetto Seti dell’università di Berkeley.
Per partecipare attivamente basta andare sul sito ed installare l’ultima versione del software ed in seguito, decidere a quale progetto partecipare.
Il primo progetto nel campo e’ il [url=http://setiathome.ssl.berkeley.edu/]SETI@home[/url]: i laboratori hanno degli enormi telescopi, che acquisiscono informazioni radio dallo spazio e usano il calcolo distribuito per esaminarle. Lo scopo e’ quello di trovare intelligenze extra-terrestri.
Con il passare degli anni altri progretti sono partiti, tra i principali:
[url=http://lhcathome.cern.ch/lhcathome/]LHC@home[/url]: è l’esperimento di ricerca di base più ambizioso della storia dell’uomo, quello che dovrebbe rivelarci di cosa è fatta la materia (e l’antimateria) che secondo i più allarmisti, potrebbe creare un letale buco nero (le probabilità però, sono più che trascurabili). L’acceleratore sotterraneo di Ginevra coinvolge attualmente migliaia di fisici provenienti da tutto il mondo; ma la mole di calcoli necessari è tale da richiedere anche l’aiuto del calcolo distribuito.
[url=http://www.boincitaly.org/progetti/foldinghome.html]Folding@home[/url]: E’ un progetto dell’univerista’ di Stanford, in California. Il progetto prevede la simulazione del “folding” delle proteine, ovvero come esse si assemblano. Se lo si riesce a comprendere, si possono trovare soluzioni a malattie come BSE (morbo della mucca pazza), morbo di Alzheimer, morbo di Parkinson… Insomma, tutte quelle malattie causate dal “misfolding”, ovvero da un assemblamento sbagliato delle proteine (e ce ne sono veramente tantissime, questi sopra sono solo degli esempi).
[url=http://climateprediction.net/]ClimatePrediction[/url]: Come cambierà il meteo nei prossimi decenni? Sappiamo tutti che il 2012 è proprio qui fuori che bussa, i ghiacci polari si stanno sciogliento e la temperatura del pianeta aumenta, il progetto sfrutta una rete di calcolo distribuito per studiare l’evoluzione del clima terrestre nel passato e per prevedere possibili scenari futuri.
[url=http://milkyway.cs.rpi.edu/milkyway/]Milkyway@home[/url]: I dati reperiti in otto anni da S[url=http://www.sdss.org/]loan Digital Sky Survey[/url] vengono elaborati per creare un modello tridimensionale il più accurato possibile, della Via Lattea. Questo progetto sta sfruttando algoritmi di calcolo genetico per generare un modello tridimensionale della Galassia Nana Ellittica del Sagittario.
[i]Ringrazio ZiaFollia per la revisione nazigrammaticale. e e e. [/i]