10 giocatori importanti nei supercomputer

Sep 11 2012
Quando si tratta di costruire supercomputer, più alto è uguale a più piccolo e più freddo significa più veloce, e questi 10 giocatori sono diventati davvero bravi in ​​questo. Conoscili prima che vengano sostituiti da qualcuno di nuovo.
Hai bisogno di rispolverare la tua storia di supercalcolo? Guarda il video!

Gli esseri umani hanno sempre avuto un debole per costruire in grande. La storia è disseminata di resti di grandi mura, piramidi e colossei, ognuno dei quali spinge gli ingegneri a immaginare il prossimo grande passo avanti. Ora abbiamo edifici come il Burj Khalifa, con la sua imponente altezza di 2.716,5 piedi o 828 metri, a testimonianza della nostra natura competitiva e creativa. E non importa quanto andiamo in alto, c'è sempre qualche architetto che elabora in silenzio i piani per la prossima grande cosa.

Lo stesso vale per il mondo dell'informatica , tranne per il fatto che più alto è uguale a più piccolo e più freddo significa più veloce. Questo settore fa sembrare decisamente glaciale il ritmo di costruzione degli edifici più alti del mondo. Grazie all'elenco semestrale dei migliori 500 supercomputer stilato scrupolosamente da Hans Meuer, Erich Strohmaier, Horst Simon e Jack Dongarra, possiamo vedere con quanta rapidità il settore avanza. I primi tre nel 2012 avranno la fortuna di occupare uno dei primi 20 posti in due anni.

La potenza di elaborazione nei supercomputer (o computer ad alte prestazioni, per coloro che fanno notare che "super" è un termine relativo) è valutata in FLOPS , abbreviazione di operazioni in virgola mobile al secondo . Un'operazione in virgola mobile è fondamentalmente un calcolo che utilizza numeri frazionari, quindi i flop sono una misura di quanti di questi possono essere eseguiti al secondo. I migliori supercomputer sono misurati in petaflop (1.000.000.000.000.000 o 1 quadrilione di flop). Il primo sistema a superare la barriera dei 10 petaflop è stato il giapponese K Computer all'inizio del 2012. In quell'estate, Sequoia al Lawrence Livermore National Laboratory era ancora più veloce. Sì, la concorrenza si muove così velocemente.

Sebbene il posto più alto sia in costante cambiamento, le principali località di supercalcolo sono solitamente gli Stati Uniti, il Giappone e l'Europa. Anche la Cina è entrata in scena con grandi ambizioni di essere un leader. In questo articolo, ci fermeremo davanti a 10 siti che fanno esplodere il tetto del supercalcolo. Fanno la lista per una combinazione di due motivi: il numero totale di petaflop e il loro impatto sul mondo del supercalcolo. La maggior parte sono leader di lunga data, ma vedrai anche alcuni nuovi arrivati ​​sul campo che hanno scosso l'establishment. Il primo è un'agenzia spaziale.

Contenuti
  1. Divisione di supercalcolo avanzato della NASA (Stati Uniti)
  2. Centro nazionale di supercalcolo a Shenzhen (Cina)
  3. Jülich Supercomputing Center (Germania)
  4. Cineca (Italia)
  5. Laboratorio nazionale di Oak Ridge (Stati Uniti)
  6. Centro nazionale di supercalcolo a Tianjin (Cina)
  7. Leibniz-Rechenzentrum (Germania)
  8. Laboratorio Nazionale Argonne (Stati Uniti)
  9. Riken (Giappone)
  10. Lawrence Livermore National Laboratory (Stati Uniti)

10: Divisione di supercalcolo avanzato della NASA (Stati Uniti)

Awww si. L'equipaggio della NASA per il taglio del nastro delle Pleiadi si prepara a festeggiare l'11 dicembre 2008.

Sapete di cosa è davvero capace una di queste meraviglie tecnologiche? La divisione Advanced Supercomputing (NAS) della NASA presso l'Ames Research Center è felice di spiegare. Dopotutto, Pleiades è il supercomputer dietro alcuni dei più interessanti progetti informatici extraterrestri in circolazione.

Gli astronomi del Kepler Science Operations Center della NASA stanno usando le Pleiadi per cercare immagini della galassia per altri pianeti simili alla Terra. Grazie a Pleiades, il team ha scoperto un pianeta che orbita attorno a due stelle, chiamato pianeta circumbinary , nel 2011. Pochi mesi dopo, hanno scoperto altri pianeti multistellari , stabilendo una classe completamente nuova di sistemi planetari [fonte: Dunbar ].

E quando Pleiades non era impegnata a trovare nuovi sistemi stellari oa rivelare le forze che fanno funzionare gli uragani, stava eseguendo simulazioni per capire come si sono formate le galassie dopo il big bang. Sì, il sistema SGI può eseguire la matematica necessaria per calcolare intere galassie, grazie alle sue prestazioni di 1,24 petaflop [fonte: Dunbar ].

Vedi ragazzi, ecco come supercalcoli. Si tratta di pensare in grande, a volte astronomicamente in grande.

9: Centro nazionale di supercalcolo a Shenzhen (Cina)

Gestire uno dei supercomputer del Korea Institute of Science and Technology Information

Mentre le persone che lavorano con computer ad alte prestazioni tenderanno a dire che le macchine esistono per promuovere la scienza, resta il fatto che essere un attore nel campo dei supercomputer offre un certo livello di status al paese ospitante. Nessun altro programma nazionale esemplifica questo meglio della Cina .

Come quasi tutto ciò che è grande oggi in Cina, se torni indietro di pochi anni, non troverai traccia del National Supercomputing Center di Shenzhen. Insieme alla sua struttura gemella a Tianjin (vedi n. 5), il computer Nebulae di Shenzhen è esploso sulla scena nel 2010 al punto n. 2 senza precedenti nel campo. L'arrivo improvviso di un computer da 1,27 petaflop in Cina è stato un punto di svolta per i laboratori di lunga data in altre parti del mondo. All'inizio degli anni 2000, i cinesi volevano diventare una forza dominante in questo campo e circa un decennio dopo erano effettivamente passati da zero a eroi.

Nebulae (prodotto dal venditore cinese Dawning) probabilmente non ha aperto molte strade dal suo debutto. Finanziare le spalle parte della colpa. Dal momento che i governi locali hanno pagato gran parte del conto per il computer (che è costato più di 1 miliardo di dollari), hanno avuto voce in capitolo su quali progetti lavoreranno Nebulae. Il sistema era originariamente destinato a elaborare calcoli per gli astrofisici, ma in realtà ha trascorso gran parte del suo tempo a sviluppare progetti economici locali come i progressi dell'industria aerospaziale, il miglioramento delle previsioni meteorologiche e persino lo sviluppo di film d'animazione [fonte: Davis ]. È un lavoro umiliante per uno dei migliori supercomputer del mondo, un po' come assumere Stephen Hawking con un assegno di ricerca, ma costringerlo a fare da tutor a tuo figlio in algebra.

8: Jülich Supercomputing Center (Germania)

Quando si tratta di supercalcolo , il Jülich Supercomputing Center opera secondo lo stesso principio "nessun lavoro è troppo grande o troppo piccolo" di ogni tuttofare della rubrica. Nel giugno 2012, il centro è entrato nella lista dei 500 migliori al numero 8 con JuQueen , il suo IBM Blue Gene/Q da 1,38 petaflop (in questo elenco vedrai molti sistemi di supercalcolo Blue Gene). È complementare a JuGene, un Blue Gene/P (ha ricevuto un aggiornamento nel 2009 per renderlo il primo computer petaflop in Europa) e JuRopa, un sistema basato su Sun.

Con tutto quel potere, Jülich è diventato un hub di simulazione computazionale e di ricerca per molte discipline affascinanti: sistemi quantistici, scienze del clima, fisica del plasma, biologia, sistemi molecolari e modelli e algoritmi matematici .

Chiamalo stereotipo, ma i tedeschi sono pazzi per l'efficienza. Loro, come i cinesi, hanno iniziato a incorporare unità di elaborazione grafica (GPU) nei loro sistemi per ottenere velocità di calcolo più elevate utilizzando meno energia. L'obiettivo è quello di superare alla fine quella magica linea di esascala (vedi barra laterale). Il futuro del supercalcolo potrebbe non essere così lontano come pensiamo.

Exascale: il prossimo passo da gigante

Gli esperti di computer cinesi - e altri produttori - stanno già parlando di raggiungere livelli di elaborazione exascale, che è fondamentalmente un aumento mille volte superiore al petascale. Il consumo elettrico, tuttavia, è l'ostacolo più alto. Un computer exascale richiederebbe circa una diga di Hoover di elettricità per alimentarlo [fonte: Hsu ].

7: Cineca (Italia)

Per anni l'Italia è stata coinvolta nel supercalcolo , ma solo di recente è emersa come uno dei principali attori del settore. Deve questo ritrovato prestigio in parte al Cineca High-Performance Computing Center, un consorzio accademico di oltre 50 università italiane. Da quando le persone hanno classificato i migliori supercomputer del mondo , Cineca ha tenuto un posto, di solito da qualche parte vicino al centro [fonte: Top500 ]. Tuttavia, nel giugno 2012, il centro è entrato per la prima volta nella top 10 con FERMI , un sistema IBM Blue Gene/Q da 1,72 petaflop che è in realtà l'ultimo di una lunga serie di prodotti IBM e Cray nella storia di Cineca.

Con finanziamenti sufficientemente consistenti, molte organizzazioni possono entrare a far parte dell'élite del supercalcolo, ma Cineca entra in questo articolo per due motivi: primo, ha sempre mantenuto una serie aggressiva di computer, e secondo, sta diventando in qualche modo una forza unificante a livello internazionale informatica

Avviato a settembre 2012, iCORDI è un forum internazionale tra le agenzie informatiche dell'UE e degli Stati Uniti. L'obiettivo è sviluppare strutture di dati universali tra i due gruppi che renderanno più ordinata e semplice la condivisione delle informazioni e della ricerca. Cineca si è posizionata come leader nelle scienze della terra solida, che è tutto, dalla tettonica alle temperature oceaniche. Con il suo nuovo ruolo e computer più potenti, l'Italia non sembra dire ciao alla scena internazionale in tempi brevi.

Ho appena incontrato un supercomputer chiamato Blue Gene

A parte tutte le scuse con David Bowie, ricordi come Deep Blue di IBM ha battuto il gran poobah degli scacchi Garry Kasparov? Quel supercomputer era solo uno dei tanti sistemi "blu" su cui Big Blue ha lavorato duramente. Incarnazioni più recenti includono Blue Gene/L, Blue Gene/P e Blue Gene/Q, l'ultimo dei quali è stato incoronato il supercomputer più veloce del mondo nel giugno 2012. Non è un titolo che nessun computer ad alte prestazioni può tenere. lungo però.

6: Oak Ridge National Laboratory (Stati Uniti)

Hai mai avuto uno di quegli amici che è tornato in concessionaria nel momento in cui l'odore di auto nuova svanisce dal suo ultimo veicolo? Questo è abbastanza vicino a come appaiono le classifiche dell'Oak Ridge National Laboratory (ORNL); puoi aspettarti che il nuovo sistema di oggi venga aggiornato o sostituito dal nuovo modello in un paio d'anni.

A parte il turnover aggressivo, un altro fatto interessante su ORNL è il suo uso di sistemi costruiti da Cray (ultimamente, molti dei migliori giocatori statunitensi gestiscono sistemi Blue Gene costruiti da IBM). Nel 2012, il suo sistema Jaguar XT5 è stato aggiornato al nuovo sistema XK6 Titan. Questi strani cambi di nome aiuteranno il sistema a saltare da 1,94 petaflop a qualcosa tra 10 e 20 petaflop , il che potrebbe portarlo vicino alla vetta della classifica mondiale.

Il Titan utilizza una combinazione di CPU di AMD e GPU di NVIDIA per condurre ricerche per il Dipartimento dell'Energia degli Stati Uniti, compreso lo studio dell'effetto dell'estensione dei cicli di vita delle centrali nucleari, la fattibilità di nuovi biocarburanti , la dinamica della popolazione, lo sviluppo della tecnologia solare e modellistica del cambiamento climatico. Quando l'impianto giapponese di Fukushima Daiichi è stato danneggiato dal terremoto e dal conseguente tsunami del 2011, i ricercatori dell'ORNL hanno impiegato molte ore per simulare alcuni degli scenari di emergenza nella centrale nucleare [fonte: Munger ].

Costruire la bomba

L'ORNL iniziò come Clinton Engineering Works, parte del Progetto Manhattan che costruì le prime armi atomiche durante la seconda guerra mondiale. Nel giro di pochi anni, la terra dell'ORNL era stata trasformata da fattorie rurali nell'Appalachian Tennessee in una città segreta di ingegneri e lavoratori.

5: Centro nazionale di supercalcolo a Tianjin (Cina)

Nel 2001, i cinesi non occupavano un solo posto nella Top 500; oggi sono secondi per numero di strutture solo agli Stati Uniti. E hanno portato a casa il loro obiettivo ambizioso accendendo il sistema presso il National Supercomputing Center di Tianjin (vicino a Pechino).

Il computer Tianhe-1A raggiunge il picco di quasi 2,56 petaflop e all'inizio del 2010 ha lanciato il National Supercomputing Center in cima alla lista internazionale. Quella è stata la prima voce in assoluto del centro nell'elenco. La comunità internazionale non poteva ignorare questo tipo di ingresso nel mercato: è spesso chiamato il momento Sputnik dei supercomputer in Cina.

Sfortunatamente, Tianhe-1A è sempre stata vista con un certo livello di critica. La sua composizione prevede una combinazione di CPU e GPU (unità di elaborazione grafica) per raggiungere la sua velocità. Le GPU offrono un modo efficiente dal punto di vista energetico per aggiungere una potenza di elaborazione significativa a un supercomputer. Il problema è che non gran parte del software cinese per l'elaborazione ad alte prestazioni era compatibile con i sistemi basati su GPU. I detrattori di Tianhe-1A amano definirla la macchina da gioco più grande e più cattiva della scena internazionale. Gli scienziati cinesi contrastano questa argomentazione sottolineando il fatto che Tianhe-1A è utilizzato per la ricerca reale, in particolare nei campi dell'energia e dell'esplorazione mineraria [fonte: Lim ].

Resta il fatto che Tianhe-1A è stata una conquista abbastanza ovvia e di successo per il titolo mondiale, ma ha anche smentito lo status di nuovo arrivato della Cina nel supercalcolo e ha mostrato le aree che deve ancora svilupparsi. Dato l'impegno del paese a essere leader in questo campo, non passerà molto tempo prima che i bug vengano eliminati dalla sua iniziativa informatica.

4: Leibniz-Rechenzentrum (Germania)

Immagina di andare a scuola in un'università che aveva un supercomputer da 2,89 petaflop nascosto. Oh, le sessioni di Warcraft che avresti! Seriamente, però, Leibniz Computing Center si distingue per alcuni motivi: in primo luogo, era il computer ad alte prestazioni più veloce d'Europa a settembre 2012. Inoltre, è il sistema più veloce in questo elenco gestito da un'istituzione accademica, la Bayerische Akademie der Wissenschaften, vicino a Monaco.

Il sistema IBM compatibile con Intel soprannominato SuperMUC , che ha debuttato nell'elenco Top500 al numero 4 nel giugno 2012, vede l'uso in molte discipline, a differenza dei computer di Argonne e Lawrence Livermore che hanno aree di ricerca più rigide. La fluidodinamica e l'aerodinamica delle automobili sono alcuni dei primi test calcolati sulla macchina Leibniz e il sistema sta facendo progressi anche nella modellazione dei terremoti .

La cosa forse più impressionante è l'uso da parte di Leibniz dei supercomputer per l'istruzione. Laddove altre strutture sembrano tenere le mani sporche di tutti lontane dai loro computer, Leibniz ha un approccio più aperto che fa sembrare più accessibile l'accesso all'apprendimento dell'informatica ad alte prestazioni [fonte: Jülich ].

Preoccupato per la scoperta

Penseresti che il Large Hadron Collider europeo sarebbe dotato di uno dei supercomputer più potenti al mondo, ma non proprio. L'Organizzazione europea per la ricerca nucleare (CERN) si basa sul grid computing - utilizzando un computer principale per sfruttare i computer di altri siti per aiutare a gestire i numeri - per portare a termine il lavoro. Il sistema del CERN è entrato nella Top 500 list nel 2007, ma alla fine è caduto in disgrazia [fonte: Hämmerle e Crémel ].

3: Laboratorio Nazionale Argonne (Stati Uniti)

C'è il supercomputer Mira di Argonne, che si è classificato come il terzo supercomputer più veloce del mondo nel giugno 2012.

Avviso spoiler! Due dei primi tre posti in questo elenco provengono dal Dipartimento dell'Energia degli Stati Uniti (DOE). I ricercatori del punto numero 1 stanno praticamente facendo esplodere cose per il programma nucleare statunitense, mentre l'equipaggio dell'Argonne National Laboratory sta lavorando in silenzio ai suoi esperimenti scientifici. Una specie di.

Argonne è stato il primo laboratorio informatico nazionale di scienza e ingegneria negli Stati Uniti, aperto nel 1946 e utilizzato il suo primo computer nel 1953. Molti dei grandi progressi tecnologici del secolo scorso sono arrivati ​​attraverso i laboratori di Argonne, tra cui la tecnologia dei reattori nucleari, la tecnologia dei sottomarini nucleari e la ricerca sulle particelle subatomiche.

Nel 2012, gli 8,16 petaflop di potenza di supercalcolo di Argonne sono stati utilizzati per far avanzare molti diversi campi della ricerca scientifica, che vanno dalle bioscienze ai trasporti e alla ricerca sul clima. Vuoi scoprire se il ponte sospeso proposto per la tua città crollerà in caso di forte vento? La gente di Argonne può simulare tutte le forze coinvolte. Dopodiché, possono fornirti gli ultimi dati di previsione sui cambiamenti climatici.

Un'altra grande parte del programma di calcolo di Argonne ? È aperto a così tanti ricercatori al di fuori del DOE. I ricercatori richiedono tempo sul sistema di Argonne e ricevono un determinato numero di ore sul sistema. Pensalo come una forma altamente elevata di aiutare una nazione con i suoi compiti di scienze.

2: Riken (Giappone)

Il numero 1 è un punto difficile a cui aggrapparsi nel gioco del supercalcolo , come testimonia K Computer al Riken Advanced Institute for Computational Science del Giappone. A metà del 2011, la macchina prodotta da Fujitsu era operativa e alla fine dell'anno la sua installazione era completa; era appena diventato il primo computer a superare la barriera dei 10 petaflop [fonte: Metz ]. K Computer ha conquistato il primo posto nella classifica mondiale nel gennaio 2012. Ma prima che le celebrative bottiglie di sake si fossero raffreddate, il nuovo computer n. 1 al mondo era già in fase di installazione.

Questo non vuol dire nulla contro la forza del K Computer. È un sistema informatico estremamente potente in grado di effettuare ricerche sbalorditive. Gran parte del suo lavoro sarà legato al progresso medico. Ad esempio, i team di ricerca di Riken utilizzano la simulazione al computer per studiare e prevedere i processi biologici nel corpo umano a livello molecolare, genetico, cellulare e degli organi.

Infine, un'altra lezione sulla concorrenza internazionale da trarre dal K Computer ha tanto a che fare con la Cina quanto con il Giappone. I giapponesi sono stati leader nel supercalcolo per molto tempo, ma come tutto in Asia, la pressione di una Cina tecnologicamente in ascesa sta spingendo tutti a lavorare di più. Il Giappone non ha nascosto le sue intenzioni di rimanere al vertice.

1: Lawrence Livermore National Laboratory (Stati Uniti)

È il nonno e la grande mamma del supercomputer americano, tutti racchiusi in uno. Il Lawrence Livermore National Laboratory iniziò come struttura di test di tecnologia nucleare al di fuori dell'area della baia di San Francisco nel 1952. Fu allora che i ricercatori usarono una vecchia infermeria navale per ospitare il primo computer della struttura. Da quando è stata installata la prima macchina, Livermore Lab è stata tra le élite informatiche mondiali. Certo, il tuo primo smartphone aveva probabilmente una velocità di elaborazione maggiore di quel primo computer, ma le macchine di Livermore sono sempre state al centro del programma nucleare americano.

Per più di 60 anni, è qui che il Dipartimento della Difesa degli Stati Uniti (DoD) ha studiato le reazioni nucleari e le detonazioni. Oggi, ogni volta che il Dipartimento della Difesa cambia un pezzo di hardware nel suo arsenale nucleare, viene eseguito attraverso i simulatori di Livermore per assicurarsi che i sistemi continueranno a funzionare se mai verranno utilizzati.

Il laboratorio ha lanciato Sequoia nel 2012, il suo mostro IBM Blue Gene/Q da 16,32 petaflop . Questo sistema può presumibilmente calcolare tutte le reazioni e le interazioni in un'esplosione nucleare in circa una settimana. Il suo predecessore ha impiegato circa un mese per svolgere lo stesso compito. E per metterlo in una prospettiva ancora più ampia, il tuo computer portatile impiegherebbe circa 1.600 anni per fare il lavoro [fonte: Derene ].

Il bisogno di velocità

Gli US National Laboratories, che gestiscono molti dei migliori supercomputer del mondo, fanno parte del Dipartimento dell'Energia.

Molte più informazioni

Nota dell'autore: 10 giocatori importanti nei supercomputer

Entrando in questo articolo, non sapevo davvero cosa aspettarmi. Temevo che l'informazione sarebbe stata più secca di un pezzo di pane tostato vecchio di un giorno. Ma mentre ricercavo i diversi laboratori, sono rimasto sbalordito dalla gamma di lavoro per cui questi computer vengono utilizzati: dalla ricerca medica, alla ricerca spaziale, alla previsione del clima e persino all'animazione. Bravo, i supercomputer e le persone che ti gestiscono. Bravo!

articoli Correlati

  • 5 tendenze futuristiche nel supercalcolo
  • A cosa servono attualmente i supercomputer?
  • Che cos'è la potenza di calcolo?
  • I computer supereranno gli umani in termini di capacità intellettuali?
  • I 10 migliori supercomputer

Fonti

  • "Cineca". I 500 migliori siti di computer. Giugno 2012. (2 settembre 2012) http://i.top500.org/site/47495
  • Derené, Glenn. "Come IBM ha costruito il computer più potente del mondo." Meccanica popolare. 28 dicembre 2011. (27 agosto 2012) http://www.popularmechanics.com/technology/engineering/extreme-machines/how-ibm-built-the-most-powerful-computer-in-the-world
  • Davis, Bob. "I computer non così eccellenti della Cina". Il giornale di Wall Street. marzo 2013. (1 settembre 2012) http://online.wsj.com/article/SB10001424052702303812904577298062429510918.html
  • Dunbar, Jill. "Alla ricerca di pianeti sorelle". Centro di ricerca Ames della NASA. 6 marzo 2012. (29 agosto 2012) http://www.nas.nasa.gov/publications/articles/feature_sister_planets_Kepler.html
  • Dunbar, Jill e Jenvey, Karen. "Il supercomputer della NASA consente le più grandi simulazioni cosmologiche" NASA Ames Research Center. 29 settembre 2011. http://www.nasa.gov/centers/ames/news/releases/2011/11-77AR.html
  • Hämmerle, Hannelore e Nicole Crémel. "Il CERN entra nel supercalcolo TOP500." Corriere del Cer. 20 agosto 2007. (29 agosto 2012) http://cerncourier.com/cws/article/cern/30870
  • Hsu, Jeremy. "I supercomputer 'Titans' affrontano enormi costi energetici" . Notizie MSNBC. 23 gennaio 2012. (1 settembre 2012) http://www.msnbc.msn.com/id/46077648/ns/technology_and_science-innovation/t/supercomputer-titans-face-huge-energy-costs
  • Lim, Luisa. "L'obiettivo del supercomputer cinese: da 'zero a eroe'." Tutte le cose considerate. 2 agosto 2011. (1 settembre 2012) http://www.npr.org/2011/08/02/138901851/chinas-supercomputing-goal-from-zero-to-hero
  • Metz, Cade. "Il Giappone spinge il computer più veloce del mondo oltre la barriera di 10 petaflop." 2 novembre 2011. (30 agosto 2012) http://www.wired.com/wiredenterprise/2011/11/japanese_megamachine/