Leggi gli altri articoli

"La corsa della tartaruga"

"Veloci si diventa (insieme)"

"Xp, la velocità non è tutto"

"Arriva la mappatura della larghezza di banda nel mondo"

Dall'archivio di Rai Educational intervista a Remo Bodei sul tema "Lentezza e velocità"

"Poveri Pc, maltrattati dai manager"







Veloci si diventa (insieme)

Wanda Marra

Supercomputer e esperimenti di calcolo distribuito a confronto

L'unione fa la forza. Sembra proprio il caso di dirlo, se si confrontano i risultati ottenuti da meraviglie della tecnica come i computer superveloci con le operazioni di calcolo distribuito. La potenza di calcolo raggiunta da una rete composta da tanti computer di singoli utenti, normalissimi personal, è in molti casi maggiore di quella di "mostri" iper-tecnologici. E - se andiamo a vedere qualche esempio concreto - scopriamo che ne guadagna anche la velocità con la quale si raggiungono certi risultati.

È di questi giorni la notizia che l'IBM - in collaborazione con il laboratorio nazionale Lawrence Livermore in California - sta lavorando ad un nuovo computer superveloce, il Blue Gene/L, che dovrebbe essere completato nel 2004. Stando a quello che dicono da Ibm, questo nuovo mostro informatico sarà in grado di elaborare 200mila miliardi di operazioni al secondo. Blue Gene/L dovrebbe essere utilizzato per raggiungere una serie di obiettivi dei più vari, dalla simulazione del modello del clima, allo studio dei dati relativi al genoma.

Blue Gene/L è solo l'ultimo dei progetti in corso in campo di supercomputer.

Attualmente, la palma del computer più veloce è detenuta da ASCI WHITE, (progetto noto come "Accelerated Strategic Computing Initiative") che copre un'area grande quanto due campi da basket, possiede una memoria da 160 trillioni di byte, necessita di 2000 miglia di cablatura e può svolgere 12.300 miliardi di operazioni al secondo. Tutto questo, per arrivare a simulare in software il risultato di esplosioni nucleari.

Blue Gene/L è il secondo computer pianificato all'interno di un progetto da 100 milioni di dollari e della durata di cinque anni: Ibm ha iniziato nel 1999 a costruire Blue Gene, un supercomputer in grado di realizzare 1 milione di miliardi di operazioni al secondo, che dovrebbe essere pronto nel 2005. L'obiettivo? Simulare meccanismi biologici complessi. Primo tra tutti, il processo di ripiegamento che determina la struttura tridimensionale delle proteine, che attualmente supera le capacità di calcolo di qualunque computer esistente.

Ma è vera gloria? Il Blue Gene è veramente lo strumento più efficace per realizzare questo obiettivo?

Folding@Home, un modesto progetto di calcolo distribuito nato poco più di un anno fa e portato avanti da un gruppo di studenti laureati dell'università di Stanford, è già riuscito a simulare il processo di ripiegamento di una proteina, la Beta Harpin, almeno una quindicina di volte diverse, in modo da essere sicuri che non si tratta di un caso. E diverse altre proteine più complesse sono in fase di studio.

Folding@Home è un programma volontario che - grazie a un software (un particolare tipo di salvaschermo) - utilizza i tempi morti dei computer su cui gira. Il metodo è lo stesso del SETI@Home, il più imponente esperimento di calcolo distribuito, che utilizza i circa 3 milioni di computer dei volontari coinvolti per analizzare i dati raccolti dal più grande radiotelescopio del mondo, quello portoricano di Arecibo, alla ricerca di segni di vita extraterrestre. Il sistema alla base del progetto consiste nell'estrarre una banda di frequenza limitata dal segnale del radiotelescopio, nel campionarla e nel registrare le informazioni su un nastro digitale che viene mandato ad un file server negli Usa. I dati sono poi suddivisi in piccolissimi blocchi e distribuiti via Internet tra tutte le macchine che partecipano all'esperimento. I computer del Seti insieme sono in grado di raggiungere una potenza di calcolo pari a due volte quella dell'ASCI White.

Insomma, sembra proprio che tanti computer "normali" siano in grado di raggiungere - anche più rapidamente - risultati migliori rispetto a velocissimi supercomputer.

In questa direzione vanno anche i dati relativi a un progetto di calcolo distribuito nato per supportare la ricerca sul cancro, lanciato ad aprile dall'Università di Oxford e dall'associazione americana National Foundation for Cancer Research con il supporto tecnico della Intel e della United Devices. A chi partecipa all'iniziativa viene inviato un pacchetto iniziale di 100 molecole, ognuna connessa a un software medico chiamato Think e un modello di una proteina conosciuta come agente cancerogeno. Think valuta l'azione delle molecole del farmaco contro la proteina malata creando un modello tridimensionale al computer che mostra le interazioni tra il farmaco e la malattia.

Nei mesi che sono trascorsi dal suo lancio, questo progetto ha già identificato circa 60.000 molecole che sono in grado di compiere un'azione inibitoria sulle proteine malate.