Storia dei supercomputer

Molti di noi hanno familiarità con i computer. Probabilmente ne stai usando uno ora per leggere questo post del blog in quanto dispositivi come laptop, smartphone e tablet sono essenzialmente la stessa tecnologia informatica sottostante. I supercomputer, d'altra parte, sono in qualche modo esoterici in quanto sono spesso considerati macchine ingombranti, costose, a risparmio energetico sviluppate, nel complesso, per istituzioni governative, centri di ricerca e grandi aziende.

Prendiamo ad esempio il Sunway TaihuLight cinese, attualmente il supercomputer più veloce del mondo, secondo la classifica dei supercomputer di Top500. Comprende 41.000 chip (i soli processori pesano oltre 150 tonnellate), costano circa $ 270 milioni e hanno una potenza nominale di 15.371 kW. Il lato positivo, tuttavia, è in grado di eseguire quadrilioni di calcoli al secondo e può contenere fino a 100 milioni di libri. E come altri supercomputer, verrà utilizzato per affrontare alcuni dei compiti più complessi nei campi della scienza come le previsioni meteorologiche e la ricerca sulle droghe.

Quando sono stati inventati i supercomputer

L'idea di un supercomputer nacque per la prima volta negli anni '60 quando un ingegnere elettrico di nome Seymour Cray, iniziò a creare il computer più veloce del mondo. Cray, considerato il "padre del supercalcolo", aveva lasciato il suo incarico nel colosso del business computing Sperry-Rand per unirsi alla nuova Control Data Corporation in modo che potesse concentrarsi sullo sviluppo di computer scientifici. Il titolo del computer più veloce del mondo era detenuto all'epoca dall'IBM 7030 "Stretch", uno dei primi a utilizzare i transistor anziché i tubi a vuoto. 

Nel 1964, Cray introdusse il CDC 6600, che presentava innovazioni come la commutazione dei transistor al germanio a favore del silicio e un sistema di raffreddamento basato su Freon. Ancora più importante, ha funzionato a una velocità di 40 MHz, eseguendo circa tre milioni di operazioni in virgola mobile al secondo, che lo hanno reso il computer più veloce del mondo. Spesso considerato il primo supercomputer al mondo, il CDC 6600 era 10 volte più veloce della maggior parte dei computer e tre volte più veloce dell'IBM 7030 Stretch. Il titolo fu infine ceduto nel 1969 al suo successore il CDC 7600.  

Seymour Cray va da solo

Nel 1972, Cray lasciò Control Data Corporation per formare la sua società, Cray Research. Dopo un po 'di tempo raccogliendo capitali di seed e finanziamenti dagli investitori, Cray ha debuttato con Cray 1, che ha nuovamente sollevato l'asticella delle prestazioni del computer con un ampio margine. Il nuovo sistema funzionava a una velocità di clock di 80 MHz ed eseguiva 136 milioni di operazioni in virgola mobile al secondo (136 megaflop). Altre caratteristiche uniche includono un nuovo tipo di processore (elaborazione vettoriale) e un design a forma di ferro di cavallo ottimizzato per la velocità che ha ridotto al minimo la lunghezza dei circuiti. Il Cray 1 è stato installato presso il Los Alamos National Laboratory nel 1976.

Negli anni '80 Cray si era affermato come il nome di spicco nel supercalcolo e si prevedeva che qualsiasi nuova versione avrebbe rovesciato i suoi precedenti sforzi. Quindi, mentre Cray era impegnato a lavorare su un successore di Cray 1, un team separato della società ha lanciato Cray X-MP, un modello che è stato fatturato come una versione più "pulita" del Cray 1. Ha condiviso lo stesso design a ferro di cavallo, ma vantava più processori, memoria condivisa ed è talvolta descritto come due Cray 1 collegati insieme come uno. Il Cray X-MP (800 megaflop) è stato uno dei primi progetti "multiprocessore" e ha contribuito ad aprire le porte all'elaborazione parallela, in cui le attività di elaborazione sono suddivise in parti ed eseguite simultaneamente da diversi processori. 

Il Cray X-MP, che è stato continuamente aggiornato, è servito da portabandiera fino al lancio a lungo atteso del Cray 2 nel 1985. Come i suoi predecessori, l'ultimo e il più grande di Cray ha assunto lo stesso design a forma di ferro di cavallo e layout di base con integrato circuiti accatastati insieme su schede logiche. Questa volta, tuttavia, i componenti erano stipati così strettamente che il computer doveva essere immerso in un sistema di raffreddamento a liquido per dissipare il calore. Il Cray 2 era dotato di otto processori, con un "processore in primo piano" incaricato di gestire la memorizzazione, la memoria e di dare istruzioni ai "processori in background", ai quali era stato assegnato il calcolo effettivo. Complessivamente, ha raggiunto una velocità di elaborazione di 1,9 miliardi di operazioni in virgola mobile al secondo (1,9 Gigaflop), due volte più veloce del Cray X-MP.

Più designer di computer emergono

Inutile dire che Cray e i suoi progetti governarono la prima era del supercomputer. Ma non era l'unico ad avanzare nel campo. I primi anni '80 hanno visto anche la nascita di computer estremamente paralleli, alimentati da migliaia di processori che lavorano tutti insieme per abbattere le barriere delle prestazioni. Alcuni dei primi sistemi multiprocessore sono stati creati da W. Daniel Hillis, che ha avuto l'idea come studente laureato presso il Massachusetts Institute of Technology. L'obiettivo a quel tempo era quello di superare i limiti di velocità di avere una CPU diretta tra gli altri processori sviluppando una rete decentralizzata di processori che funzionava in modo simile alla rete neurale del cervello. La sua soluzione implementata, introdotta nel 1985 come Connection Machine o CM-1, presentava 65.536 processori a bit singolo interconnessi.

I primi anni '90 segnarono l'inizio della fine per l'affermazione di Cray sul supercalcolo. A quel punto, il pioniere del supercalcolo si era separato dalla Cray Research per formare la Cray Computer Corporation. Le cose iniziarono ad andare a sud per l'azienda quando il progetto Cray 3, il previsto successore di Cray 2, incontrò tutta una serie di problemi. Uno dei principali errori di Cray è stato optare per i semiconduttori di arsenuro di gallio - una tecnologia più recente - come un modo per raggiungere il suo obiettivo dichiarato di un miglioramento di dodici volte nella velocità di elaborazione. In definitiva, la difficoltà nel produrli, insieme ad altre complicazioni tecniche, ha finito per ritardare il progetto per anni e ha portato alla perdita di interesse di molti dei potenziali clienti dell'azienda. In poco tempo, la compagnia rimase senza soldi e dichiarò fallimento nel 1995.

Le lotte di Cray avrebbero lasciato il posto a una sorta di cambiamento di guardia poiché i sistemi informatici giapponesi concorrenti sarebbero arrivati ​​a dominare il campo per gran parte del decennio. NEC Corporation, con sede a Tokyo, è apparsa per la prima volta nel 1989 con l'SX-3 e un anno dopo ha presentato una versione a quattro processori che è diventata il computer più veloce del mondo, per poi essere eclissata nel 1993. Quell'anno, il tunnel numerico del vento di Fujitsu , con la forza bruta di 166 processori vettoriali è diventato il primo supercomputer a superare 100 gigaflop (Nota a margine: per darti un'idea di quanto rapidamente avanza la tecnologia, i più veloci processori di consumo nel 2016 possono facilmente fare più di 100 gigaflop, ma al tempo, è stato particolarmente impressionante). Nel 1996, Hitachi SR2201 ha alzato l'ante con 2048 processori per raggiungere un picco di prestazioni di 600 gigaflop.

Intel si unisce alla gara

Ora, dov'era Intel? La società che si era affermata come chipmaker leader del mercato consumer non ha davvero fatto schizzi nel regno del supercalcolo fino alla fine del secolo. Questo perché le tecnologie erano animali completamente diversi. I supercomputer, ad esempio, sono stati progettati per assorbire quanta più potenza di elaborazione possibile, mentre i personal computer miravano a spremere l'efficienza da capacità di raffreddamento minime e fornitura di energia limitata. Quindi nel 1993 gli ingegneri Intel hanno finalmente fatto il grande passo adottando il coraggioso approccio di andare in parallelo in modo massiccio con il processore Intel XP / S 140 Paragon a 3,680, che nel giugno del 1994 era salito in vetta alla classifica dei supercomputer. È stato il primo supercomputer con processore parallelamente massiccio ad essere indiscutibilmente il sistema più veloce al mondo. 

Fino a questo punto, il supercalcolo è stato principalmente il dominio di quelli con il tipo di tasche profonde per finanziare progetti così ambiziosi. Tutto è cambiato nel 1994 quando gli appaltatori del Goddard Space Flight Center della NASA, che non avevano quel tipo di lusso, hanno trovato un modo intelligente per sfruttare la potenza del calcolo parallelo collegando e configurando una serie di personal computer utilizzando una rete Ethernet . Il sistema "Beowulf cluster" che svilupparono era composto da 16 processori 486DX, in grado di funzionare nella gamma dei gigaflop e costare meno di $ 50.000 da costruire. Aveva anche la particolarità di eseguire Linux piuttosto che Unix prima che Linux diventasse il sistema operativo preferito dai supercomputer. Ben presto, i fai-da-te di tutto il mondo sono stati seguiti progetti simili per creare i loro cluster di Beowulf.  

Dopo aver ceduto il titolo nel 1996 a Hitachi SR2201, Intel tornò in quell'anno con un design basato sul Paragon chiamato ASCI Red, che comprendeva oltre 6.000 processori Pentium Pro da 200 MHz. Nonostante si allontanasse dai processori vettoriali a favore di componenti standardizzati, l'ASCI Red si è distinto per essere stato il primo computer a infrangere la barriera da un trilione di flop (1 teraflop). Nel 1999, gli aggiornamenti gli hanno permesso di superare tre trilioni di flop (3 teraflop). Il rosso ASCI è stato installato presso i laboratori nazionali di Sandia ed è stato utilizzato principalmente per simulare esplosioni nucleari e contribuire al mantenimento dell'arsenale nucleare del paese.

Dopo che il Giappone ha ripreso il comando del supercalcolo per un periodo con il 35,9 teraflop NEC Earth Simulator, IBM ha portato il supercalcolo ad altezze senza precedenti a partire dal 2004 con il Blue Gene / L. Quell'anno, IBM ha debuttato con un prototipo che ha appena mosso il Earth Simulator (36 teraflop). E entro il 2007, gli ingegneri avrebbero aumentato l'hardware per spingere la sua capacità di elaborazione a un picco di quasi 600 teraflop. È interessante notare che il team è stato in grado di raggiungere tali velocità adottando l'approccio dell'utilizzo di più chip con potenza relativamente bassa, ma più efficiente dal punto di vista energetico. Nel 2008, IBM si è di nuovo messa in moto quando ha acceso il Roadrunner, il primo supercomputer a superare un quadrilione di operazioni in virgola mobile al secondo (1 petaflops).