Man mano che i nostri dispositivi diventano più predisposti per il Web e ci ritroviamo ad allontanarci dal paradigma del personal computer, la maggior parte di noi immagina i "supercomputer" come quei grandi e divertenti supercomputer Cray e IBM che sognavano i Baby Boomer, con un milione di luci lampeggianti e manovelle e leve. Ma in tutto il mondo, giganteschi sistemi paralleli -- a volte assomigliano un po' più ai vecchi supercomputer di quanto si possa pensare! -- sono ancora in fase di sviluppo.
La maggior parte di noi ha familiarità con la legge di Moore , che dice nella sua forma più elementare che i chip per computer raddoppieranno la potenza ogni 18-24 mesi. È facile dimenticare che questo non si applica solo ai nostri laptop e desktop. Tutti i nostri dispositivi elettronici beneficiano dello stesso ciclo di miglioramento: velocità di elaborazione, sensibilità del sensore, memoria e persino i pixel della fotocamera o del telefono. Ma i chip possono diventare così piccoli e potenti solo prima che determinati effetti dovuti alla meccanica quantistica si attivino, e alcuni esperti affermano che questa tendenza - che è suonata sorprendentemente vera negli ultimi 50 anni - potrebbe rallentare nel prossimo decennio man mano che ci avviciniamo al limite effettivo di ciò che i nostri materiali attuali possono fare [fonte: Peckham ].
I nostri telefoni e tablet potrebbero essere il risultato della riduzione di enormi quantità di potenza di calcolo a qualcosa che puoi portare in spiaggia, ma stiamo solo vedendo la faccia di tutti quei dati. Dietro le quinte, il " cloud " richiede informazioni e calcoli sempre più rapidi e in aumento, in aumento altrettanto costante della qualità e della quantità di dati che stiamo godendo dalla nostra parte dello schermo. Dai film ad alta definizione che trasmettiamo in streaming, al meteo, al traffico e ad altre informazioni satellitari che già utilizziamo durante i nostri giorni, il futuro risiede nel semplice vecchio scricchiolio dei numeri. Ed è ciò che i supercomputer sanno fare meglio.
- Exaflop e oltre!
- Supercomputer verdi
- Il cervello artificiale
- Sistemi meteorologici e modelli complessi
- Mondi simulati
5: Exaflop e oltre!
La miniaturizzazione dei componenti del chip è solo metà della storia. Dall'altro lato della bilancia, c'è il supercomputer: configurazioni personalizzate, costruite per il potere. Nel 2008, l'IBM Roadrunner ha infranto la barriera del petaflop: un quadrilione di operazioni al secondo [fonte: IBM ]. (FLOPS sta per "operazioni in virgola mobile al secondo" ed è lo standard che usiamo per parlare di supercomputer usati per calcoli scientifici, come quelli di cui stiamo parlando in questo articolo.)
Espresso in notazione scientifica, un petaflop viene misurato su una scala di 10^15 operazioni al secondo. Un computer exaflop - che gli esperti prevedono arriverà entro il 2019 - ha prestazioni di 10^18, ovvero mille volte più veloci dei computer petaflop che stiamo vedendo ora [fonte: HTNT ]. A titolo di confronto, a giugno 2011, i 500 supercomputer più veloci del mondo messi insieme avrebbero ancora meno di 60 petaflop di potenza. Continuando nel futuro, gli zettaflop migliorano sulla stessa scala, dandoci 10^21 operazioni al secondo entro il 2030, e poi arrivano gli yottaflop, a 10^24 [fonte: TOP500 ].
Ma cosa significano davvero quei numeri? Bene, per cominciare, si ritiene che una simulazione completa del cervello umano sarà possibile entro il 2025 e, entro 10 anni, i computer zettaflop dovrebbero essere in grado di prevedere con precisione l'intero sistema meteorologico con due settimane di anticipo.
Top500.org
Dal 1993, il progetto TOP500 è la risorsa centrale per tracciare e rilevare le tendenze del supercalcolo. Due volte all'anno viene pubblicato un elenco ordinato dei più potenti sistemi informatici attualmente operativi. Queste classifiche si basano su un insieme specifico di criteri, il benchmark Linpack, che prevede l'esecuzione di un supercomputer attraverso diverse equazioni lineari dense e la misurazione dei suoi tempi di risposta. TOP500 aggiunge le specifiche di ciascun sistema, nonché le aree in cui verrà utilizzato.
Alla International Supercomputing Conference del 2012 ad Amburgo, in Germania, un supercomputer statunitense è entrato in cima alla lista per la prima volta dal 2009: Sequoia di IBM, installato presso il Lawrence Livermore National Laboratory del Department of Energy, ha ottenuto un punteggio Linpack di 16.32 petaflop [fonte: Perry ]. Sequoia ha spodestato il giapponese K Computer, che a sua volta ha preso il primo posto dal cinese Tianhe-1A un anno prima, con un punteggio superiore a 10 petaflop [fonte: TOP500 ].
4: Supercomputer verdi

Tutto quel potere ha un costo. Se hai mai avuto un dissipatore di calore guasto in crash il tuo computer desktop, o ti sei seduto con un laptop effettivamente in grembo per più di pochi minuti, sai qual è il costo: i computer utilizzano molta energia che produce calore. In effetti, una delle maggiori sfide per gli sviluppatori di supercomputer è trovare un modo sensato per installare e utilizzare le potenti macchine senza guasti hardware o danni crescenti alla terra. Dopotutto, uno degli usi principali delle simulazioni meteorologiche sarà il monitoraggio delle fluttuazioni di carbonio e temperatura, quindi non sarebbe molto intelligente aggiungere al problema stesso che i climatologi stanno cercando di risolvere!
Qualsiasi sistema informatico è utile quanto il suo giorno peggiore, quindi mantenere freddi quei circuiti caldi è di grande interesse. Infatti, più della metà dell'energia utilizzata dai supercomputer va direttamente al raffreddamento. Ma poiché il futuro del supercalcolo è legato ad altre scienze d'avanguardia e programmi futuristi, le preoccupazioni ecologiche sono già una questione di grande importanza per gli ingegneri informatici ad alte prestazioni [fonte: Jana ]. Le soluzioni ecologiche e l'efficienza energetica fanno parte di ogni progetto di supercomputer in corso e, in effetti, l'efficienza di Sequoia è stata una grande seconda ragione per cui il supercomputer IBM ha debuttato con tale clamore.
Dal raffreddamento con "aria libera" - ovvero, metodi di progettazione per immettere l'aria esterna nel sistema - ai progetti hardware che massimizzano la superficie, gli scienziati cercano di essere innovativi con l'efficienza quanto lo sono con la velocità. Una delle idee più interessanti utilizzate da diversi team è quella di far funzionare il sistema in un liquido conduttore che raccoglie il calore, quindi viene convogliato attraverso la struttura che ospita le stesse banche di computer. Riscaldare l'acqua e le stanze raffreddando contemporaneamente le apparecchiature è un'idea che ha molte applicazioni oltre ai soli siti di supercomputer, ma i progetti nell'elenco di TOP500 stanno prendendo molto sul serio idee come queste.
Affrontare i problemi di ecologia ed efficienza non è solo una buona idea per il nostro pianeta, ma è necessario per far funzionare le macchine. Forse non è l'applicazione più affascinante che questa ricerca può promettere al resto di noi - e ti sono state promesse tendenze futuristiche!
3: Il cervello artificiale
Parliamo di cosa succede dal 2025 al 2030, quando i supercomputer sono in grado di mappare il cervello umano [fonte: Shuey ]. Uno scienziato della Syracuse University ha stimato nel 1996 che il nostro cervello ha una capacità di memoria compresa tra uno e 10 terabyte, probabilmente circa tre [fonte: MOAH ]. Naturalmente, questo non era un confronto estremamente utile, dal momento che il nostro cervello non funziona allo stesso modo dei computer. Ma entro i prossimi 20 anni, i computer dovrebbero essere in grado di funzionare come fanno i nostri cervelli!
Allo stesso modo i supercomputer sono già utili per mappare e influenzare il genoma umano, produrre soluzioni e prevedere problemi e predilezioni mediche ereditate, modelli accurati del cervello umano significheranno enormi passi avanti nella diagnosi, nei trattamenti e nella nostra comprensione delle complessità del pensiero umano ed emozione. Insieme alla tecnologia di imaging, i medici sarebbero in grado di individuare le aree problematiche, simulare diverse forme di trattamento e persino arrivare alla radice di molte domande che ci hanno afflitto dall'inizio dei tempi. Chip impiantabili e innestabili e altre tecnologie potrebbero aiutare a monitorare e persino a spostare i livelli di serotonina e altre sostanze chimiche cerebrali legate ai disturbi dell'umore, mentre i principali malfunzionamenti e lesioni cerebrali potrebbero essere semplicemente invertiti.
Oltre ai progressi medici che questa tecnologia ci aiuterà a raggiungere, c'è anche la piccola questione dell'intelligenza artificiale (AI). Mentre la potenza di calcolo a prestazioni medie ci offre già una potente intelligenza artificiale, per non parlare dei sistemi intelligenti che già raccomandano selezioni personalizzate di televisione, film, libri sugli algoritmi di intelligenza artificiale o le ore che trascorriamo a chattare con Siri e programmi simili di intelligenza virtuale - un livello di complessità "mentale" simile a quello umano significa applicazioni per una vera IA. Immagina un Web MD che risponda effettivamente come un medico, portando livelli di attenzione di esperti alle domande che poni. E poi, espandi quel concetto oltre le preoccupazioni mediche, agli esperti virtuali, spiegando tutto ciò che devi sapere in un ambiente confortevole e colloquiale.
2: Sistemi meteorologici e modelli complessi

Entro il 2030, si spera, i supercomputer zettaflop dovrebbero essere in grado di modellare accuratamente l'intero sistema meteorologico terrestre con almeno due settimane di distanza [fonte: Thorpe ]. Stiamo parlando di simulazioni accurate dal 99 al 100 percento dell'intero pianeta e dell'ecosfera, con previsioni locali e globali disponibili premendo un pulsante. Disastri a parte, potrebbe sembrare un'applicazione relativamente specializzata -- oltre alla pianificazione di un matrimonio o di una vacanza, quando è stata l'ultima volta che avevi bisogno di conoscere le previsioni del tempo settimane o mesi prima? -- ma considera la scala delle informazioni qui.
Il clima terrestre è un sistema così complesso che viene regolarmente invocato nella discussione sulla teoria del caos, la più grande quantità di complessità che la maggior parte di noi può persino comprendere: "Il battito d'ali di una farfalla in Brasile scatena un tornado in Texas?" era la classica domanda posta per la prima volta da Philip Merilees nel 1972 (sebbene il concetto di complessità meteorologica in questo contesto risalga al 1890 con Poincaré) [fonte: Wolchover ]. È difficile immaginare un sistema più complesso su scala più ampia di quello dei nostri modelli e sistemi meteorologici, se ci pensi in questo modo.
La produzione alimentare e l'agricoltura, gli effetti del tempo su altri progetti scientifici su larga scala (come il lancio di una navetta o le spedizioni polari, per esempio) e i soccorsi preventivi in caso di calamità sono solo alcuni dei cambiamenti significativi - e salvavita - che questo tipo di potenza di calcolo offre noi.
E, naturalmente, i sistemi meteorologici sono solo la punta della calotta glaciale, qui: se riesci a immaginare modelli meteorologici perfettamente simulati, è solo un salto alla corretta modellazione di qualsiasi sistema altrettanto grande e complesso. Interi pianeti e mondi potrebbero essere realizzati nel silicio e nell'elettricità dei supercomputer di domani.
1: mondi simulati
La maggior parte di noi ha familiarità con gli ambienti di gioco multiplayer online e può ricordare quando gli ambienti artificiali come "Second Life" erano di gran moda. Le realtà virtuali sono state un pulsante caldo della fantascienza per almeno un secolo. Ma quando metti queste idee nella tramoggia con le capacità del supercalcolo dietro l'angolo, gli ambienti di gioco e di ruolo diventano utili per molto più che per l'intrattenimento.
Sebbene ci sarà senza dubbio uno sviluppo maestoso sulla falsariga di "Second Life" e "The Matrix" - e i cambiamenti culturali e sociali che ne derivano - il concetto di sovrapposizione di dati nella nostra vita quotidiana è ancora più applicazione emozionante e utile di tutto questo potere. Visite guidate storiche, indicazioni GPS dinamiche e recensioni di ristoranti online mostrano già questa tecnologia nella sua infanzia. Ma immagina di accelerare quelle simulazioni di modelli meteorologici, inserendo elementi caotici come la mente e il comportamento umani, e potrai testare teorie di ingegneria civile, pianificazione urbana e persino disuguaglianze alimentari e di risorse.
I supercomputer non dovranno indovinare queste informazioni, anche se sarebbero bravissimi: possono acquisire informazioni da ogni possibile fonte - dagli ultimi tweet di tendenza ai modelli di traffico all'utilizzo della rete energetica - e creare modelli in tempo reale da loro di regolare non solo i fattori in corso, ma anche di pianificare il futuro. I continui blackout, la carenza di gas, persino l'ingorgo intorno a eventi ad alta popolazione come le Olimpiadi saranno un ricordo del passato.
Con la pervasiva Internet WiFi pronta a conquistare il paese e il mondo, fornendo alle prossime generazioni la connettività 4G passata, il mondo simulato davvero potente un giorno non sarà presto diverso dal mondo in cui viviamo già, solo migliore. Sarà più informato, più personalizzato e, soprattutto, ci consentirà come individui e come civiltà di utilizzare al meglio tali informazioni. E tutte queste informazioni e possibilità dinamiche ti verranno fornite dalla potenza delle prestazioni dei supercomputer che solo ora stiamo dando vita.
Molte più informazioni
Nota dell'autore: 5 tendenze futuristiche nel supercalcolo
Come utente dedicato del cloud, preferisco viaggiare leggero. Personalmente utilizzo solo circa un gigabyte del disco rigido del mio computer, in modo da poter accedere ai miei media e progetti di lavoro da qualsiasi dispositivo sia più conveniente. Ma nell'apprendere come i supercomputer stanno spostando il fulcro della potenza di calcolo ancora più lontano dal mio telefono e tablet, sono rimasto sbalordito nel vedere quante opportunità davvero futuristiche per il miglioramento delle nostre vite sono alla nostra portata.
articoli Correlati
- Qual è il futuro di Internet?
- .com: cloud computing
- 5 fantastici video sulla tecnologia del futuro
- Come funzionano gli occhiali di Google
- 5 miti sulla tecnologia del futuro
- Come funzionerà il database del crimine futuro
Altri ottimi collegamenti
- Il progetto TOP500
- Componi il futuro
- Portale della tecnologia futura
- Cronologia futura di Intel :
Fonti
- Mail giornaliera. "Preparati per il supercomputer che può prevedere il futuro." Mail giornaliera. Dicembre 2011. (8 agosto 2012) http://www.dailymail.co.uk/sciencetech/article-2069775/Get-ready-supercomputer-predict-future-EU-prepares-900m-funding.html
- Graham, Susan L., Snir, Marc e Patterson, Cynthia A. "Al passo con i tempi: il futuro del supercalcolo". Comitato Nazionale delle Ricerche del Comitato delle Accademie Nazionali sul futuro del supercalcolo, National Academies Press. 2005. (8 agosto 2012) http://research.microsoft.com/en-us/um/people/blampson/72-cstb-supercomputing/72-cstb-supercomputing.pdf
- IBM. "Corridore di strada". Carta bianca. Giugno 2008. (8 agosto 2012) http://www.ibm.com/ibm/ideasfromibm/us/roadrunner/20080609/index.shtml
- Jana, Reena. "Green IT: strategie aziendali". Settimana di lavoro. Febbraio 2011. (8 agosto 2012) http://www.businessweek.com/stories/2008-02-11/green-it-corporate-strategiesbusinessweek-business-news-stock-market-and-financial-advice
- Mc Millan, Robert. "Intel vede Exabucks nel futuro del supercalcolo." Cablato. Gennaio 2012. (8 agosto 2012) http://www.wired.com/wiredenterprise/2012/01/supercomputings-future
- Museo del patrimonio americano. "Tecnologia." Ultimo aggiornamento maggio 2010. (8 agosto 2012) http://www.moah.org/exhibits/archives/brains/technology.html
- Peckham, Matt. "Il crollo della legge di Moore: il fisico dice che sta già accadendo". Tempo. Maggio 2012. (8 agosto 2012) http://techland.time.com/2012/05/01/the-collapse-of-moores-law-physicist-says-its-already-happening
- Perry, Douglas. "Avresti bisogno di 1 Petaflop per segnare # 20 nella classifica dei primi 500." Blog sulla tecnologia hardware di Tom. Luglio 2012. (8 agosto 2012) http://www.tomshardware.com/news/supercomputer-top500-petaflop-servers-DOE,16042.html
- Yonck, Richard. "La corsa dei supercomputer, rivisitata." Blog della società mondiale del futuro. Giugno 2011. (8 agosto 2012) http://www.wfs.org/content/supercomputer-race-revisited