Los seres humanos siempre han tenido algo para construir en grande. La historia está plagada de restos de Grandes Murallas, pirámides y coliseos, cada uno de los cuales empuja a los ingenieros a imaginar el próximo gran paso adelante. Ahora tenemos edificios como el Burj Khalifa, con su imponente altura de 2.716,5 pies o 828 metros, como testimonio de nuestra naturaleza competitiva y creativa. Y no importa qué tan alto lleguemos, siempre hay algún arquitecto elaborando planos en silencio para la próxima gran cosa.
Lo mismo es válido para el mundo de la informática , excepto que más alto es igual a más pequeño y más fresco significa más rápido. Esta industria hace que el ritmo de construcción de los edificios más altos del mundo parezca francamente glacial. Gracias a la lista bianual Top500 de supercomputadoras minuciosamente compilada por Hans Meuer, Erich Strohmaier, Horst Simon y Jack Dongarra, podemos ver cuán rápido avanza la industria. Los tres primeros en 2012 tendrán la suerte de ocupar uno de los 20 primeros lugares en dos años.
La potencia de procesamiento en las supercomputadoras (o computadoras de alto rendimiento, para aquellos que señalan que "super" es un término relativo) se clasifica en FLOPS , abreviatura de operaciones de coma flotante por segundo . Una operación de coma flotante es básicamente un cálculo que utiliza números fraccionarios, por lo que flops es una medida de cuántos de estos se pueden realizar por segundo. Las mejores supercomputadoras se miden en petaflops (1 000 000 000 000 000 o 1 cuatrillón de flops). El primer sistema en romper la barrera de los 10 petaflops fue K Computer de Japón a principios de 2012. Para ese verano, Sequoia en el Laboratorio Nacional Lawrence Livermore estaba funcionando aún más rápido. Sí, la competencia se mueve tan rápido.
Aunque el asiento principal está en constante cambio, las principales ubicaciones de supercomputación suelen ser los Estados Unidos, Japón y Europa. China también ha irrumpido en escena, con grandes ambiciones de ser un líder. En este artículo, nos detendremos en 10 sitios que están arrasando con la supercomputación. Hacen la lista por una combinación de dos razones: el número total de petaflops y su impacto en el mundo de la supercomputación. La mayoría son líderes de larga data, pero también verá algunos recién llegados al campo que han sacudido el establecimiento. El primero es una agencia espacial.
- División de Supercomputación Avanzada de la NASA (EE. UU.)
- Centro Nacional de Supercomputación en Shenzhen (China)
- Centro de Supercomputación de Jülich (Alemania)
- Cineca (Italia)
- Laboratorio Nacional de Oak Ridge (EE. UU.)
- Centro Nacional de Supercomputación en Tianjin (China)
- Leibniz-Rechenzentrum (Alemania)
- Laboratorio Nacional de Argonne (EE. UU.)
- Riken (Japón)
- Laboratorio Nacional Lawrence Livermore (EE. UU.)
10: División de Supercomputación Avanzada de la NASA (EE. UU.)

¿Sabes de lo que es realmente capaz una de estas maravillas tecnológicas? La división de Supercomputación Avanzada (NAS) de la NASA en el Centro de Investigación Ames se complace en explicarlo. Después de todo, Pleiades es la supercomputadora detrás de algunos de los mejores proyectos de computación extraterrestre que existen.
Los astrónomos del Centro de Operaciones Científicas Kepler de la NASA están utilizando las Pléyades para buscar imágenes de la galaxia en busca de otros planetas similares a la Tierra. Gracias a las Pléyades, el equipo descubrió un planeta que orbita alrededor de dos estrellas, llamado planeta circumbinario , en 2011. Unos meses más tarde, descubrieron más planetas multiestrella , estableciendo una clase completamente nueva de sistemas planetarios [fuente: Dunbar ].
Y cuando las Pléyades no estaban ocupadas buscando nuevos sistemas estelares o revelando las fuerzas que hacen que los huracanes funcionen, estaban realizando simulaciones para comprender cómo se formaron las galaxias después del Big Bang. Sí, el sistema SGI puede ejecutar las matemáticas necesarias para calcular galaxias enteras, gracias a su rendimiento de 1,24 petaflop [fuente: Dunbar ].
Miren niños, así es como se supercomputa. Se trata de pensar en grande, a veces astronómicamente grande.
9: Centro Nacional de Supercomputación en Shenzhen (China)

Si bien las personas que trabajan con computadoras de alto rendimiento tenderán a decir que las máquinas existen para promover la ciencia, el hecho es que ser un jugador en el campo de las supercomputadoras ofrece un cierto nivel de estatus al país anfitrión. Ningún otro programa nacional ejemplifica esto mejor que China .
Como casi todo lo que es grande en China hoy en día, si retrocedes el calendario unos pocos años, no encontrarás rastro del Centro Nacional de Supercomputación en Shenzhen. Junto con su instalación hermana en Tianjin (ver No. 5), la computadora Nebulae de Shenzhen irrumpió en escena en 2010 en el lugar No. 2 sin antecedentes previos en el campo. La llegada repentina de una computadora de 1,27 petaflop a China cambió las reglas del juego para los laboratorios establecidos desde hace mucho tiempo en otras partes del mundo. A principios de la década de 2000, los chinos querían convertirse en una fuerza dominante en este campo y aproximadamente una década más tarde habían pasado de cero a héroes.
Nebulae (made by Chinese vendor Dawning) arguably hasn't been breaking much ground since its debut. Funding shoulders part of the blame. Since local governments footed much of the bill for the computer (which cost more than $1 billion), they got a large say in which projects Nebulae will work on. The system was originally intended to hash out calculations for astrophysicists, but it has actually spent much of its time developing local economic projects such as aerospace industry advancements, improved weather forecasting and even developing animated films [source: Davis]. It's humbling work for one of the world's top supercomputers – sort of like hiring Stephen Hawking on a research retainer but making him tutor your teenager in algebra.
8: Jülich Supercomputing Center (Germany)
When it comes to supercomputing , Jülich Supercomputing Center operates on the same “no job is too big or too small” principle as every handyman in the phone book. In June 2012, the center made the Top500 list at No. 8 with JuQueen, its 1.38-petaflop IBM Blue Gene/Q (you’ll be seeing a lot of Blue Gene supercomputing systems on this list). It complements JuGene, a Blue Gene/P (it received an upgrade in 2009 to make it Europe’s first petaflop computer), and JuRopa, a Sun-based system.
With all that power, Jülich has become a computational and research simulation hub for many fascinating disciplines: quantum systems, climate science, plasma physics, biology, molecular systems, and mathematical modeling and algorithms .
Call it a stereotype, but the Germans are efficiency nuts. They -- like the Chinese -- have begun incorporating graphical processing units (GPUs) into their systems to achieve higher computational speeds using less energy. The goal is to eventually cross that magical exascale line (see sidebar). The future of supercomputing may not be as far out there as we think.
Exascale: The Next Giant Leap
Chinese computer experts -- and other manufacturers -- are already talking about reaching exascale processing levels, which is basically a thousandfold increase above the petascale. Electrical consumption, however, is the tallest hurdle. One exascale computer would require about one Hoover Dam-worth of electricity to power it [source: Hsu].
7: Cineca (Italy)
For years, Italy has been involved in supercomputing , but only recently has it emerged as a major player in the field. It owes that newfound standing in part to the Cineca High-Performance Computing Center, an academic consortium of more than 50 Italian universities. Ever since people have been ranking the world's top supercomputers , Cineca has held a spot, usually someplace near the middle [source: Top500]. However, in June 2012, the center broke into the top 10 for the first time with FERMI, a 1.72-petaflop IBM Blue Gene/Q system that's actually the latest in a long line of IBM and Cray products in Cineca's history.
With deep enough funding, lots of organizations can become part of the supercomputing elite, but Cineca gets into this article for two reasons: First, it has always maintained an aggressive series of computers, and second, it's becoming somewhat of a uniting force in international computing
Started in September 2012, iCORDI is an international forum between E.U. and U.S. computing agencies. The goal is to develop universal data structures between the two groups that will make the sharing of information and research neater and easier. Cineca has positioned itself as a leader in solid earth sciences, which is everything from tectonics to ocean temperatures. With its new role and more powerful computers, Italy doesn't appear to be saying ciao to the international stage anytime soon.
I Just Met a Supercomputer Named Blue Gene
All apologies to David Bowie aside, remember how IBM's Deep Blue beat chess grand poobah Garry Kasparov? That supercomputer was just one of several "blue" systems that Big Blue has toiled over. More recent incarnations include the Blue Gene/L, the Blue Gene/P and the Blue Gene/Q, the last of which was crowned the fastest supercomputer in the world in June 2012. That's not a title that any high-performance computer holds for long though.
6: Oak Ridge National Laboratory (U.S.)
Have you ever had one of those friends who's back at the dealership the moment the new-car smell wears off his or her last vehicle? That's pretty close to what Oak Ridge National Laboratory's (ORNL) rankings look like; you can fully expect that today's hot new system will either be upgraded or replaced by the new model in a couple years.
Aside from the aggressive turnover, another interesting fact about ORNL is its use of Cray-built systems (lately, many of the top U.S. players run IBM-built Blue Gene systems). In 2012, its Jaguar XT5 system was getting upgraded to the new XK6 Titan system. Those fancy name changes will help the system leapfrog from 1.94 petaflops to somewhere between 10 and 20 petaflops, which could land it near the top of the world rankings.
The Titan uses a combination of CPUs by AMD and GPUs by NVIDIA to conduct research for the U.S. Department of Energy, including studying the effect of extending the life cycles of nuclear power plants, the viability of new biofuels , population dynamics, development of solar technology and climate change modeling. When Japan's Fukushima Daiichi plant was damaged in the earthquake and ensuing tsunami of 2011, ORNL researchers put in long hours to simulate some of the emergency scenarios at the nuclear plant [source: Munger].
Building the Bomb
ORNL got its start as the Clinton Engineering Works, part of the Manhattan Project that built the earliest atomic weapons during World War II. In a matter of a few years, the land at ORNL had been transformed from rural farms in Appalachian Tennessee into a secret city of engineers and workers.
5: National Supercomputing Center in Tianjin (China)
In 2001, the Chinese didn't hold a single spot on the Top 500 list; today they are second in number of facilities only to the United States. And they drove their ambitious point home by switching on the system at the National Supercomputing Center in Tianjin (near Beijing).
The Tianhe-1A computer peaks at almost 2.56 petaflops, and it launched the National Supercomputing Center to the top of the international list in early 2010. That was the center's first-ever entry on the list. The international community couldn't ignore that kind of entry into the marketplace – it's often called China's supercomputing Sputnik moment.
Unfortunately, Tianhe-1A has always been viewed with a certain level of criticism. Its makeup involves a combination of CPUs and GPUs (graphical processing units) to achieve its speed. GPUs offer an energy-efficient way of adding significant processing power to a supercomputer. The problem is that not much of China's software for high-performance computing was compatible with GPU-based systems. Tianhe-1A's detractors like to call this the biggest, baddest gaming machine on the international stage. Chinese scientists counter that argument by pointing outing out the fact that Tianhe-1A is used for real research, particularly in the fields of energy and mineral exploration [source: Lim].
El hecho es que Tianhe-1A fue una conquista bastante obvia y exitosa del título mundial, pero también desmintió el estatus de recién llegado de China en supercomputación y mostró las áreas que aún necesita desarrollar. Dado el compromiso del país de liderar en este campo, no pasará mucho tiempo antes de que se resuelvan los errores de su iniciativa informática.
4: Leibniz-Rechenzentrum (Alemania)
Imagínese ir a la escuela en una universidad que tenía una supercomputadora de 2,89 petaflop escondida. ¡Oh, las sesiones de Warcraft que tendrías! Hablando en serio, Leibniz Computing Center se destaca por varias razones: primero, era la computadora de alto rendimiento más rápida de Europa en septiembre de 2012. Además, es el sistema más rápido en esta lista que está a cargo de una institución académica, Bayerische Akademie der Wissenschaften, cerca de Munich.
El sistema IBM compatible con Intel denominado SuperMUC , que debutó en la lista Top500 en el puesto número 4 en junio de 2012, tiene uso en muchas disciplinas, a diferencia de las computadoras en Argonne y Lawrence Livermore que tienen áreas de investigación más rígidas. La dinámica de fluidos y la aerodinámica de los automóviles son algunas de las primeras pruebas que se calculan en la máquina de Leibniz, y el sistema también está avanzando en el modelado de terremotos .
Lo que quizás sea más impresionante es el uso que hace Leibniz de las supercomputadoras para la educación. Donde otras instalaciones parecen mantener las manos sucias de todos lejos de sus computadoras, Leibniz tiene un enfoque más abierto que hace que el acceso al aprendizaje sobre computación de alto rendimiento parezca más accesible [fuente: Jülich ].
Preocupados por el descubrimiento
Uno pensaría que el Gran Colisionador de Hadrones de Europa estaría equipado con una de las supercomputadoras más poderosas del mundo, pero en realidad no es así. La Organización Europea para la Investigación Nuclear (CERN, por sus siglas en inglés) se basa en la computación en cuadrícula , utilizando una computadora principal para aprovechar las computadoras en otros sitios para ayudar a calcular los números, para hacer el trabajo. El sistema del CERN llegó a la lista Top 500 en 2007, pero finalmente cayó de pie [fuente: Hämmerle and Crémel ].
3: Laboratorio Nacional de Argonne (EE. UU.)

¡Alerta de spoiler! Dos de los tres primeros lugares en esta lista son del Departamento de Energía de los Estados Unidos (DOE). Los investigadores en el puesto número 1 prácticamente están haciendo estallar cosas para el programa nuclear de EE. UU., mientras que el equipo del Laboratorio Nacional de Argonne está trabajando en silencio en sus experimentos científicos. Algo así como.
Argonne fue el primer laboratorio informático nacional de ciencias e ingeniería en los Estados Unidos, se inauguró en 1946 y usó su primera computadora en 1953. Muchos de los grandes avances tecnológicos del siglo pasado se produjeron a través de los laboratorios de Argonne, incluida la tecnología de reactores nucleares, la tecnología de submarinos nucleares e investigación sobre partículas subatómicas.
En 2012, los 8,16 petaflops de potencia de supercomputación de Argonne se utilizaron para avanzar en muchos campos diferentes de la investigación científica, que van desde las biociencias hasta el transporte y la investigación climática. ¿Quiere saber si el puente colgante propuesto por su ciudad se derrumbará con fuertes vientos? La gente de Argonne puede simular todas las fuerzas involucradas. Después de eso, pueden brindarle los últimos datos de predicción del cambio climático.
¿ Otra gran parte del programa informático de Argonne ? Está abierto a tantos investigadores fuera del DOE. Los investigadores solicitan tiempo en el sistema de Argonne y se les otorga un número determinado de horas en el sistema. Piense en ello como una forma muy elevada de ayudar a una nación con su tarea de ciencias.
2: Riken (Japón)
El número 1 es un lugar difícil de mantener en el juego de la supercomputación , como lo atestiguó K Computer en el Instituto Avanzado de Ciencias Computacionales Riken de Japón. A mediados de 2011, la máquina fabricada por Fujitsu estaba en funcionamiento y, a fines de año, se completó su instalación; acababa de convertirse en la primera computadora en superar la barrera de 10 petaflop [fuente: Metz ]. K Computer ocupó el primer lugar en la lista mundial en enero de 2012. Pero antes de que se enfriaran las botellas de sake de celebración, ya se estaba instalando la nueva computadora número 1 en el mundo.
Eso no quiere decir nada en contra de la fuerza de K Computer. Es un sistema informático extremadamente poderoso capaz de realizar investigaciones asombrosas. Gran parte de su trabajo estará relacionado con el avance médico. Por ejemplo, los equipos de investigación de Riken utilizan simulación por computadora para estudiar y predecir procesos biológicos en el cuerpo humano a nivel molecular, genético, celular y de órganos.
Finalmente, otra lección acerca de la competencia internacional para aprender de K Computer tiene tanto que ver con China como con Japón. Los japoneses han sido líderes en supercomputación durante mucho tiempo, pero como todo en Asia, la presión de una China en ascenso tecnológico está impulsando a todos a trabajar más duro. Japón no ha ocultado sus intenciones de mantenerse en la cima.
1: Laboratorio Nacional Lawrence Livermore (EE. UU.)
Es el abuelo y la mamá grande de la supercomputación estadounidense, todo en uno. El Laboratorio Nacional Lawrence Livermore comenzó como una instalación de prueba de tecnología nuclear fuera del área de la Bahía de San Francisco en 1952. Fue entonces cuando los investigadores utilizaron una antigua enfermería naval para albergar la primera computadora de la instalación. Desde que se instaló esa primera máquina, Livermore Lab ha estado entre la élite informática del mundo. Por supuesto, su primer teléfono inteligente probablemente tenía más velocidad de procesamiento que la primera computadora, pero las máquinas de Livermore siempre han estado en el corazón del programa nuclear de Estados Unidos.
Durante más de 60 años, aquí es donde el Departamento de Defensa de EE. UU. (DoD) ha estudiado las reacciones y detonaciones nucleares. Hoy, cada vez que el Departamento de Defensa cambia una pieza de hardware en su arsenal nuclear, se ejecuta a través de los simuladores en Livermore para asegurarse de que los sistemas seguirán funcionando si alguna vez se usan.
El laboratorio puso en marcha Sequoia en 2012, su monstruo IBM Blue Gene/Q de 16,32 petaflops . Este sistema supuestamente puede calcular todas las reacciones e interacciones en una explosión nuclear en aproximadamente una semana. Su predecesor tardó alrededor de un mes en hacer la misma tarea. Y para poner eso en una perspectiva aún mayor, su computadora portátil tardaría alrededor de 1.600 años en hacer el trabajo [fuente: Derene ].
La necesidad de velocidad
Los Laboratorios Nacionales de EE. UU., que operan muchas de las mejores supercomputadoras del mundo, son parte del Departamento de Energía.
Mucha más información
Nota del autor: 10 jugadores principales en las supercomputadoras
Al entrar en este artículo, realmente no sabía qué esperar. Tenía miedo de que la información fuera más seca que una tostada del día anterior. Pero mientras investigaba los diferentes laboratorios, me sorprendió la variedad de trabajos para los que se utilizan estas computadoras, desde investigación médica, investigación espacial, predicción climática e incluso animación. Bravo, las supercomputadoras y la gente que te dirige. ¡Bravo!
Artículos relacionados
- 5 tendencias futuristas en supercomputación
- ¿Para qué se utilizan actualmente las supercomputadoras?
- ¿Qué es el poder de cómputo?
- ¿Superarán las computadoras a los humanos en capacidad intelectual?
- Las 10 mejores supercomputadoras
Fuentes
- "Cineca". Los 500 mejores sitios informáticos. Junio de 2012. (2 de septiembre de 2012) http://i.top500.org/site/47495
- Derene, Glenn. "Cómo IBM construyó la computadora más poderosa del mundo". Mecánica Popular. 28 de diciembre de 2011. (27 de agosto de 2012) http://www.popularmechanics.com/technology/engineering/extreme-machines/how-ibm-built-the-most-powerful-computer-in-the-world
- Davis, Bob. "Las no tan supercomputadoras de China". El periodico de Wall Street. Marzo de 2013. (1 de septiembre de 2012) http://online.wsj.com/article/SB10001424052702303812904577298062429510918.html
- Dunbar, Jill. "Buscando planetas hermanos". Centro de Investigación Ames de la NASA. 6 de marzo de 2012. (29 de agosto de 2012) http://www.nas.nasa.gov/publications/articles/feature_sister_planets_Kepler.html
- Dunbar, Jill y Jenvey, Karen. "La supercomputadora de la NASA permite las simulaciones cosmológicas más grandes" Centro de investigación Ames de la NASA. 29 de septiembre de 2011. http://www.nasa.gov/centers/ames/news/releases/2011/11-77AR.html
- Hämmerle, Hannelore y Nicole Crémel. "CERN lo convierte en supercomputadora TOP500". Mensajero Cern. 20 de agosto de 2007. (29 de agosto de 2012) http://cerncourier.com/cws/article/cern/30870
- Hsu, Jeremy. "Los 'titanes' de las supercomputadoras enfrentan enormes costos de energía". Noticias MSNBC. 23 de enero de 2012. (1 de septiembre de 2012) http://www.msnbc.msn.com/id/46077648/ns/technology_and_science-innovation/t/supercomputer-titans-face-huge-energy-costs
- Lim, Luisa. "Objetivo de supercomputación de China: de 'cero a héroe'". Todas las cosas consideradas. 2 de agosto de 2011. (1 de septiembre de 2012) http://www.npr.org/2011/08/02/138901851/chinas-supercomputing-goal-from-zero-to-hero
- Metz, Cade. "Japón empuja la computadora más rápida del mundo más allá de la barrera de 10 Petaflop". 2 de noviembre de 2011. (30 de agosto de 2012) http://www.wired.com/wiredenterprise/2011/11/japanese_megamachine/