10 Hauptakteure bei Supercomputern

Sep 11 2012
Wenn es um das Bauen von Supercomputern geht, ist größer gleich kleiner und kühler bedeutet schneller, und diese 10 Spieler sind wirklich gut darin geworden. Lernen Sie sie kennen, bevor sie durch jemand neuen ersetzt werden.
Müssen Sie Ihre Supercomputing-Geschichte auffrischen? Schau das Video!

Menschen hatten schon immer eine Vorliebe dafür, groß zu bauen. Die Geschichte ist übersät mit den Überresten von Chinesischen Mauern, Pyramiden und Kolosseen, von denen jeder die Ingenieure dazu drängt, sich den nächsten großen Schritt nach vorne vorzustellen. Jetzt haben wir Gebäude wie den Burj Khalifa mit seiner gewaltigen Höhe von 2.716,5 Fuß oder 828 Metern als Beweis für unsere wettbewerbsorientierte – und kreative – Natur. Und egal wie hoch wir gehen, es gibt immer irgendeinen Architekten, der leise Pläne für das nächste große Ding entwirft.

Dasselbe gilt für die Welt der Computer , außer dass größer gleich kleiner und kühler schneller bedeutet. Diese Industrie lässt das Tempo beim Bau der höchsten Gebäude der Welt geradezu eisig erscheinen. Wie schnell sich die Branche entwickelt, zeigt die halbjährlich von Hans Meuer, Erich Strohmaier, Horst Simon und Jack Dongarra mühsam zusammengestellte Top500- Liste der Supercomputer . Die Top Drei des Jahres 2012 haben das Glück, in zwei Jahren einen der Top 20 Plätze zu belegen.

Die Rechenleistung von Supercomputern (oder Hochleistungscomputern, für diejenigen, die darauf hinweisen, dass „super“ ein relativer Begriff ist) wird in FLOPS angegeben , kurz für Gleitkommaoperationen pro Sekunde . Eine Gleitkommaoperation ist im Grunde eine Berechnung mit Bruchzahlen, also ist Flop ein Maß dafür, wie viele davon pro Sekunde ausgeführt werden können. Top-Supercomputer werden in Petaflops (1.000.000.000.000.000 oder 1 Billiarde Flops) gemessen. Das erste System, das die 10-Petaflop-Grenze durchbrach, war Japans K Computer Anfang 2012. In diesem Sommer lief Sequoia am Lawrence Livermore National Laboratory sogar noch schneller. Ja, so schnell bewegt sich die Konkurrenz.

Obwohl sich der Spitzenplatz in ständigem Wandel befindet, sind die wichtigsten Supercomputing-Standorte normalerweise die Vereinigten Staaten, Japan und Europa. Auch China ist mit großen Ambitionen, eine Führungsrolle zu übernehmen, auf den Plan getreten. In diesem Artikel schauen wir uns 10 Standorte an, die Supercomputing in die Luft sprengen. Sie machen die Liste aus einer Kombination von zwei Gründen: Gesamtzahl der Petaflops und ihre Auswirkungen auf die Welt des Supercomputing. Die meisten sind langjährige Führungskräfte, aber Sie werden auch ein paar Newcomer auf dem Gebiet sehen, die das Establishment aufgerüttelt haben. An erster Stelle steht eine Weltraumagentur.

Inhalt
  1. NASA Advanced Supercomputing Division (USA)
  2. Nationales Höchstleistungsrechenzentrum in Shenzhen (China)
  3. Jülich Supercomputing Centre (Deutschland)
  4. Cineca (Italien)
  5. Oak Ridge National Laboratory (USA)
  6. Nationales Höchstleistungsrechenzentrum in Tianjin (China)
  7. Leibniz-Rechenzentrum (Deutschland)
  8. Argonne National Laboratory (USA)
  9. Riken (Japan)
  10. Lawrence Livermore National Laboratory (USA)

10: NASA Advanced Supercomputing Division (USA)

Awww ja. Die NASA-Crew zum Durchschneiden des Bandes für die Plejaden bereitet sich darauf vor, am 11. Dezember 2008 zu feiern.

Wissen Sie, wozu eines dieser technologischen Wunderwerke wirklich fähig ist? Die Advanced Supercomputing (NAS)-Abteilung der NASA im Ames Research Center erklärt gerne. Schließlich ist Pleiades der Supercomputer hinter einigen der coolsten außerirdischen Computerprojekte, die es gibt.

Astronomen des Kepler Science Operations Center der NASA verwenden Plejaden, um Bilder der Galaxie nach anderen erdähnlichen Planeten zu durchsuchen. Dank Pleiades entdeckte das Team 2011 einen Planeten, der zwei Sterne umkreist, der als zirkumbinärer Planet bezeichnet wird. Einige Monate später entdeckten sie weitere Mehrsternplaneten und begründeten eine ganz neue Klasse von Planetensystemen [Quelle: Dunbar ].

Und als Pleiades nicht damit beschäftigt war, neue Sternensysteme zu finden oder die Kräfte aufzudecken, die Hurrikane zum Laufen bringen, führte es Simulationen durch, um zu verstehen, wie sich Galaxien nach dem Urknall bildeten. Ja, das SGI-System kann dank seiner Leistung von 1,24 Petaflops die zur Berechnung ganzer Galaxien erforderliche Mathematik ausführen [Quelle: Dunbar ].

Kinder, so macht man Supercomputing. Es geht darum, groß zu denken – manchmal astronomisch groß.

9: Nationales Höchstleistungsrechenzentrum in Shenzhen (China)

Bemannung eines der Supercomputer am Korea Institute of Science and Technology Information

Während die Leute, die mit Hochleistungscomputern arbeiten , eher sagen werden, dass die Maschinen dazu da sind, die Wissenschaft zu fördern, bleibt die Tatsache bestehen, dass es dem Gastgeberland einen gewissen Status verleiht, ein Akteur im Bereich der Supercomputer zu sein. Kein anderes nationales Programm veranschaulicht dies besser als China .

Wie fast alles andere, was heute in China groß ist, werden Sie, wenn Sie den Kalender nur ein paar Jahre zurückdrehen, keine Spur vom National Supercomputing Center in Shenzhen finden. Zusammen mit seiner Schwesteranlage in Tianjin (siehe Nr. 5) tauchte der Nebulae - Computer von Shenzhen im Jahr 2010 auf Platz 2 ohne Vorgeschichte auf dem Gebiet auf. Die plötzliche Ankunft eines 1,27-Petaflop- Computers in China war ein Wendepunkt für alteingesessene Labore in anderen Teilen der Welt. In den frühen 2000er Jahren wollten die Chinesen eine dominierende Kraft auf diesem Gebiet werden, und etwa ein Jahrzehnt später waren sie praktisch von Null auf Helden aufgestiegen.

Nebulae (hergestellt vom chinesischen Anbieter Dawning) hat seit seinem Debüt wohl nicht viel Boden erobert. Die Finanzierung trägt einen Teil der Schuld. Da die lokalen Regierungen einen Großteil der Rechnung für den Computer (der mehr als 1 Milliarde US-Dollar kostete) bezahlten, hatten sie ein großes Mitspracherecht bei den Projekten, an denen Nebulae arbeiten wird. Das System war ursprünglich dazu gedacht, Berechnungen für Astrophysiker durchzuführen, aber es hat tatsächlich einen Großteil seiner Zeit damit verbracht, lokale Wirtschaftsprojekte wie Fortschritte in der Luft- und Raumfahrtindustrie, verbesserte Wettervorhersagen und sogar die Entwicklung von Animationsfilmen zu entwickeln [Quelle: Davis ]. Es ist eine demütigende Arbeit für einen der weltbesten Supercomputer – etwa so, als würde man Stephen Hawking für einen Forschungsauftrag einstellen, ihn aber dazu bringen, seinen Teenager in Algebra zu unterrichten.

8: Jülich Supercomputing Centre (Deutschland)

Beim Supercomputing gilt für das Jülich Supercomputing Centre das „Kein Job ist zu groß oder zu klein“-Prinzip wie jeder Handwerker im Telefonbuch. Im Juni 2012 schaffte es das Zentrum mit JuQueen , seinem 1,38-Petaflop- IBM Blue Gene/Q, auf Platz 8 der Top500-Liste (auf dieser Liste werden Sie viele Blue-Gene-Supercomputing-Systeme sehen). Es ergänzt JuGene, ein Blue Gene/P (es erhielt 2009 ein Upgrade, um es zu Europas erstem Petaflop-Computer zu machen), und JuRopa, ein Sun-basiertes System.

Mit all dieser Kraft ist Jülich zu einem Zentrum für Computer- und Forschungssimulationen für viele faszinierende Disziplinen geworden: Quantensysteme, Klimawissenschaften, Plasmaphysik, Biologie, molekulare Systeme sowie mathematische Modellierung und Algorithmen .

Nennen Sie es ein Klischee, aber die Deutschen sind Effizienzverrückte. Sie haben – wie die Chinesen – begonnen, grafische Verarbeitungseinheiten (GPUs) in ihre Systeme zu integrieren, um höhere Rechengeschwindigkeiten mit weniger Energie zu erreichen. Das Ziel ist es, schließlich diese magische Exascale-Linie zu überschreiten (siehe Seitenleiste). Die Zukunft des Supercomputings ist möglicherweise nicht so weit entfernt, wie wir denken.

Exascale: Der nächste Riesensprung

Chinesische Computerexperten – und andere Hersteller – sprechen bereits davon, Exascale-Verarbeitungsniveaus zu erreichen, was im Grunde eine tausendfache Steigerung über der Petascale ist. Der Stromverbrauch ist jedoch die größte Hürde. Ein Exascale-Computer würde etwa einen Hoover-Staudamm an Strom benötigen, um ihn mit Strom zu versorgen [Quelle: Hsu ].

7: Cineca (Italien)

Italien ist seit Jahren am Supercomputing beteiligt, hat sich aber erst kürzlich zu einem wichtigen Akteur auf diesem Gebiet entwickelt. Dieses neu gewonnene Ansehen verdankt es zum Teil dem Cineca High-Performance Computing Center, einem akademischen Konsortium aus mehr als 50 italienischen Universitäten. Seit Menschen die besten Supercomputer der Welt einordnen, hat Cineca einen Platz eingenommen, normalerweise irgendwo in der Mitte [Quelle: Top500 ]. Im Juni 2012 brach das Center jedoch zum ersten Mal mit FERMI , einem 1,72-Petaflop- IBM-Blue-Gene/Q-System, das eigentlich das neueste in einer langen Reihe von IBM- und Cray-Produkten in der Geschichte von Cineca ist, in die Top 10 ein.

Mit ausreichender Finanzierung können viele Organisationen Teil der Supercomputing-Elite werden, aber Cineca greift diesen Artikel aus zwei Gründen auf: Erstens hat es immer eine aggressive Serie von Computern aufrechterhalten, und zweitens wird es zu einer vereinigenden Kraft auf internationaler Ebene Rechnen

iCORDI wurde im September 2012 gegründet und ist ein internationales Forum zwischen EU- und US-Datenverarbeitungsbehörden. Ziel ist es, universelle Datenstrukturen zwischen den beiden Gruppen zu entwickeln, die den Informationsaustausch und die Recherche übersichtlicher und einfacher machen. Cineca hat sich als führend in den Wissenschaften der festen Erde positioniert, die alles von Tektonik bis zu Meerestemperaturen umfassen. Mit seiner neuen Rolle und leistungsfähigeren Computern scheint Italien in absehbarer Zeit kein Ciao zur internationalen Bühne zu sagen.

Ich habe gerade einen Supercomputer namens Blue Gene getroffen

Entschuldigung an David Bowie beiseite, erinnern Sie sich daran, wie IBMs Deep Blue den Schach-Giganten Garry Kasparov besiegte? Dieser Supercomputer war nur eines von mehreren "blauen" Systemen, an denen Big Blue gearbeitet hat. Neuere Inkarnationen sind der Blue Gene/L, der Blue Gene/P und der Blue Gene/Q, von denen der letzte im Juni 2012 zum schnellsten Supercomputer der Welt gekürt wurde. Das ist kein Titel, den irgendein Hochleistungscomputer trägt lang aber.

6: Oak Ridge National Laboratory (USA)

Hatten Sie schon einmal einen dieser Freunde, die in dem Moment, in dem der Neuwagengeruch von seinem oder ihrem letzten Fahrzeug nachlässt, wieder beim Händler sind? Das kommt der Rangliste des Oak Ridge National Laboratory (ORNL) ziemlich nahe; Sie können davon ausgehen, dass das heiße neue System von heute in ein paar Jahren entweder aufgerüstet oder durch das neue Modell ersetzt wird.

Abgesehen von dem aggressiven Umsatz ist eine weitere interessante Tatsache über ORNL die Verwendung von Cray-gebauten Systemen (in letzter Zeit verwenden viele der Top-US-Spieler IBM-gebaute Blue Gene-Systeme). Im Jahr 2012 wurde das Jaguar XT5-System auf das neue XK6 Titan-System aufgerüstet. Diese ausgefallenen Namensänderungen werden dem System helfen, von 1,94 Petaflops auf irgendwo zwischen 10 und 20 Petaflops zu springen , was es an die Spitze der Weltrangliste bringen könnte.

Der Titan verwendet eine Kombination aus CPUs von AMD und GPUs von NVIDIA, um Forschungen für das US-Energieministerium durchzuführen, einschließlich der Untersuchung der Auswirkungen der Verlängerung der Lebenszyklen von Kernkraftwerken, der Rentabilität neuer Biokraftstoffe , der Bevölkerungsdynamik und der Entwicklung der Solartechnologie und Klimamodellierung. Als das japanische Kraftwerk Fukushima Daiichi durch das Erdbeben und den darauf folgenden Tsunami im Jahr 2011 beschädigt wurde, investierten ORNL-Forscher viele Stunden, um einige der Notfallszenarien im Kernkraftwerk zu simulieren [Quelle: Munger ].

Bau der Bombe

ORNL begann als Clinton Engineering Works, Teil des Manhattan-Projekts, das die frühesten Atomwaffen während des Zweiten Weltkriegs baute. Innerhalb weniger Jahre hatte sich das Land am ORNL von ländlichen Farmen in den Appalachen von Tennessee in eine geheime Stadt von Ingenieuren und Arbeitern verwandelt.

5: Nationales Höchstleistungsrechenzentrum in Tianjin (China)

2001 hatten die Chinesen keinen einzigen Platz auf der Top-500-Liste; Heute sind sie nach den Vereinigten Staaten die zweitgrößte Einrichtung. Und sie trieben ihren ehrgeizigen Punkt nach Hause, indem sie das System im National Supercomputing Center in Tianjin (in der Nähe von Peking) einschalteten.

Der Tianhe-1A- Computer erreicht Spitzenwerte von fast 2,56 Petaflops und brachte das National Supercomputing Center Anfang 2010 an die Spitze der internationalen Liste. Das war der allererste Eintrag des Zentrums auf der Liste. Die internationale Gemeinschaft konnte diese Art des Eintritts in den Markt nicht ignorieren – es wird oft als Chinas Supercomputing - Sputnik-Moment bezeichnet.

Leider wurde Tianhe-1A immer mit einer gewissen Kritik betrachtet. Sein Aufbau umfasst eine Kombination aus CPUs und GPUs (Grafikprozessoren), um seine Geschwindigkeit zu erreichen. GPUs bieten eine energieeffiziente Möglichkeit, einem Supercomputer erhebliche Rechenleistung hinzuzufügen. Das Problem ist, dass nicht viel von Chinas Software für High-Performance-Computing mit GPU-basierten Systemen kompatibel war. Die Kritiker von Tianhe-1A nennen dies gerne den größten und schlechtesten Spielautomaten auf der internationalen Bühne. Chinesische Wissenschaftler entgegnen diesem Argument, indem sie darauf hinweisen, dass Tianhe-1A für echte Forschung verwendet wird, insbesondere in den Bereichen Energie- und Mineralexploration [Quelle: Lim ].

Tatsache bleibt, dass Tianhe-1A ein ziemlich offensichtlicher und erfolgreicher Griff nach dem Weltmeistertitel war, aber es widerlegte auch Chinas Newcomer-Status im Supercomputing und zeigte die Bereiche, die es noch entwickeln muss. Angesichts des Engagements des Landes, auf diesem Gebiet führend zu sein, wird es nicht lange dauern, bis die Fehler in seiner Computerinitiative behoben sind.

4: Leibniz-Rechenzentrum (Deutschland)

Stellen Sie sich vor, Sie gehen an einer Universität zur Schule, die einen 2,89-Petaflops- Supercomputer versteckt hat. Oh, die Warcraft-Sitzungen, die Sie hätten! Im Ernst, das Leibniz-Rechenzentrum sticht aus mehreren Gründen heraus: Erstens war es Europas schnellster Hochleistungsrechner (Stand: September 2012). Außerdem ist es das schnellste System auf dieser Liste, das von einer akademischen Einrichtung, der Bayerischen Akademie der Wissenschaften, in der Nähe betrieben wird München.

Das Intel-kompatible IBM-System namens SuperMUC , das im Juni 2012 auf Platz 4 der Top500-Liste debütierte, wird in vielen Disziplinen eingesetzt – im Gegensatz zu den Computern bei Argonne und Lawrence Livermore, die starrere Forschungsgebiete haben. Strömungs- und Aerodynamik von Autos gehören zu den ersten Tests, die in der Leibniz-Maschine berechnet werden, und auch bei der Modellierung von Erdbeben macht das System Fortschritte .

Am beeindruckendsten ist vielleicht Leibniz' Einsatz von Supercomputern für die Bildung. Wo andere Einrichtungen scheinbar alle schmutzigen Hände von ihren Computern fernhalten, verfolgt Leibniz einen offeneren Ansatz, der den Zugang zum Lernen über Hochleistungsrechnen zugänglicher erscheinen lässt [Quelle: Jülich ].

ConCERNed with Discovery

Man könnte meinen, dass Europas Large Hadron Collider mit einem der leistungsstärksten Supercomputer der Welt ausgestattet wäre, aber nicht wirklich. Die Europäische Organisation für Kernforschung (CERN) verlässt sich auf Grid-Computing – einen Hauptcomputer, um Computer an anderen Standorten zu nutzen, um die Berechnung der Zahlen zu unterstützen – um die Arbeit zu erledigen. Das CERN-System schaffte es 2007 in die Top-500-Liste, fiel aber schließlich aus dem Stand [Quelle: Hämmerle und Crémel ].

3: Argonne National Laboratory (USA)

Da ist Argonnes Supercomputer Mira, der im Juni 2012 als drittschnellster Supercomputer der Welt eingestuft wurde.

Spoiler Alarm! Zwei der ersten drei Plätze auf dieser Liste stammen vom United States Department of Energy (DOE). Forscher am Platz Nr. 1 sprengen geradezu Sachen für das US-Atomprogramm, während die Crew des Argonne National Laboratory leise an ihren wissenschaftlichen Experimenten arbeitet. Art von.

Argonne war das erste nationale Computerlabor für Wissenschaft und Technik in den Vereinigten Staaten, das 1946 eröffnet wurde und 1953 seinen ersten Computer verwendete. So viele der großen technologischen Fortschritte des letzten Jahrhunderts kamen durch Argonnes Labors, einschließlich Kernreaktortechnologie und Atom-U-Boot -Technologie und Forschung an subatomaren Teilchen.

Im Jahr 2012 wurde Argonnes 8,16 Petaflops Supercomputing-Leistung verwendet, um viele verschiedene Bereiche der wissenschaftlichen Forschung voranzutreiben, die von Biowissenschaften bis hin zu Verkehrs- und Klimaforschung reichten. Möchten Sie herausfinden, ob die geplante Hängebrücke Ihrer Stadt bei starkem Wind zusammenbrechen wird? Argonne-Leute können alle beteiligten Kräfte simulieren. Danach können sie Ihnen die neuesten Vorhersagedaten zum Klimawandel geben.

Ein weiterer großartiger Teil von Argonnes Computerprogramm ? Es steht so vielen Forschern außerhalb des DOE offen. Forscher beantragen Zeit auf Argonnes System und erhalten eine festgelegte Anzahl von Stunden auf dem System. Betrachten Sie es als eine sehr gehobene Form, einer Nation bei ihren wissenschaftlichen Hausaufgaben zu helfen.

2: Riken (Japan)

Nr. 1 ist ein harter Punkt im Supercomputing -Spiel, wie K Computer am japanischen Riken Advanced Institute for Computational Science bezeugt hat. Mitte 2011 war die von Fujitsu hergestellte Maschine in Betrieb und Ende des Jahres war die Installation abgeschlossen; er hatte gerade als erster Computer die 10-Petaflop- Grenze überschritten [Quelle: Metz ]. K Computer eroberte im Januar 2012 den ersten Platz auf der weltweiten Liste. Doch bevor die feierlichen Sake-Flaschen abgekühlt waren, wurde der neue Computer Nr. 1 der Welt bereits installiert.

Das soll nichts gegen die Stärke des K-Computers sagen. Es ist ein extrem leistungsfähiges Computersystem, das zu erstaunlichen Forschungsergebnissen fähig ist. Ein Großteil seiner Arbeit wird sich auf den medizinischen Fortschritt beziehen. Beispielsweise verwenden die Forschungsteams von Riken Computersimulationen, um biologische Prozesse im menschlichen Körper auf molekularer, genetischer, zellulärer und Organebene zu untersuchen und vorherzusagen.

Abschließend noch eine weitere Lehre aus dem K-Computer über den internationalen Wettbewerb, die ebenso viel mit China wie mit Japan zu tun hat. Die Japaner sind seit langem führend im Supercomputing, aber wie überall in Asien treibt der Druck eines technologisch aufstrebenden Chinas alle dazu, härter zu arbeiten. Japan hat aus seinen Absichten, an der Spitze zu bleiben, keinen Hehl gemacht.

1: Lawrence Livermore National Laboratory (USA)

Es ist der Großvater und die große Mutter des US- Supercomputings , alles in einem. Das Lawrence Livermore National Laboratory begann 1952 als Testeinrichtung für Nukleartechnologie außerhalb der Bucht von San Francisco. Damals nutzten Forscher eine alte Marinekrankenstation, um den ersten Computer der Einrichtung unterzubringen. Seit der Installation dieser ersten Maschine gehört Livermore Lab zur weltweiten Computerelite. Zugegeben, Ihr erstes Smartphone hatte wahrscheinlich eine höhere Verarbeitungsgeschwindigkeit als dieser erste Computer, aber die Maschinen von Livermore waren schon immer das Herzstück des amerikanischen Atomprogramms.

Seit mehr als 60 Jahren untersucht das US-Verteidigungsministerium (DoD) hier nukleare Reaktionen und Detonationen. Heutzutage wird jedes Mal, wenn das Verteidigungsministerium ein Stück Hardware in seinem Nukleararsenal ändert, es durch die Simulatoren in Livermore geführt, um sicherzustellen, dass die Systeme noch funktionieren, wenn sie jemals verwendet werden.

Das Labor startete 2012 Sequoia , sein IBM Blue Gene/Q 16.32-Petaflop- Monster. Dieses System kann angeblich alle Reaktionen und Wechselwirkungen bei einer nuklearen Explosion in etwa einer Woche berechnen. Sein Vorgänger brauchte etwa einen Monat, um die gleiche Aufgabe zu erledigen. Und um das noch besser ins rechte Licht zu rücken: Ihr Laptop würde etwa 1.600 Jahre brauchen, um die Arbeit zu erledigen [Quelle: Derene ].

Das Verlangen nach Geschwindigkeit

Die US National Laboratories, die viele der weltbesten Supercomputer betreiben, sind Teil des Energieministeriums.

Viele weitere Informationen

Anmerkung des Autors: 10 Hauptakteure bei Supercomputern

Als ich in diesen Artikel hineinging, wusste ich wirklich nicht, was mich erwarten würde. Ich hatte Angst, dass die Informationen trockener sein würden als ein Tag altes Stück Toast. Aber als ich die verschiedenen Labore erkundete, war ich erstaunt über die Bandbreite der Arbeiten, für die diese Computer verwendet werden – alles von medizinischer Forschung, Weltraumforschung, Klimavorhersage und sogar Animation. Bravo, Supercomputer und die Leute, die Sie leiten. Bravo!

Zum Thema passende Artikel

  • 5 futuristische Trends im Supercomputing
  • Wofür werden Supercomputer derzeit verwendet?
  • Was ist Rechenleistung?
  • Werden Computer die Menschen an intellektuellen Fähigkeiten überholen?
  • Top 10 Supercomputer

Quellen

  • "Cineka". Top500 Computerseiten. Juni 2012. (2. September 2012) http://i.top500.org/site/47495
  • Derene, Glenn. "Wie IBM den leistungsstärksten Computer der Welt baute." Beliebte Mechanik. 28. Dez. 2011. (27. Aug. 2012) http://www.popularmechanics.com/technology/engineering/extreme-machines/how-ibm-built-the-most-powerful-computer-in-the-world
  • Davis, Bob. "Chinas Nicht-So-Super-Computer." Das Wall Street Journal. März 2013. (1. September 2012) http://online.wsj.com/article/SB10001424052702303812904577298062429510918.html
  • Dunbar, Jill. "Auf der Suche nach Schwesterplaneten." NASA-Ames-Forschungszentrum. 6. März 2012. (29. August 2012) http://www.nas.nasa.gov/publications/articles/feature_sister_planets_Kepler.html
  • Dunbar, Jill und Jenvey, Karen. "NASA-Supercomputer ermöglicht größte kosmologische Simulationen" NASA Ames Research Center. 29. September 2011. http://www.nasa.gov/centers/ames/news/releases/2011/11-77AR.html
  • Hämmerle, Hannelore und Nicole Crémel. "CERN schafft es in die TOP500 der Supercomputing-Liste." CERN-Kurier. 20. August 2007. (29. August 2012) http://cerncourier.com/cws/article/cern/30870
  • Huhu, Jeremy. "Supercomputer 'Titans' stehen vor enormen Energiekosten". MSNBC-Nachrichten. 23. Jan. 2012. (1. Sept. 2012) http://www.msnbc.msn.com/id/46077648/ns/technology_and_science-innovation/t/supercomputer-titans-face-huge-energy-costs
  • Lim, Luisa. "Chinas Supercomputing-Ziel: Von 'Null zum Helden'." Alles in Betracht gezogen. 2. Aug. 2011. (1. Sept. 2012) http://www.npr.org/2011/08/02/138901851/chinas-supercomputing-goal-from-zero-to-hero
  • Metz, Cade. „Japan bringt den schnellsten Computer der Welt über die 10-Petaflop-Grenze hinaus.“ 2. November 2011. (30. August 2012) http://www.wired.com/wiredenterprise/2011/11/japanese_megamachine/