10 jogadores importantes em supercomputadores

Sep 11 2012
Quando se trata de construir supercomputadores, mais alto é igual a menor e mais frio significa mais rápido, e esses 10 jogadores ficaram muito bons nisso. Conheça-os antes que sejam substituídos por alguém novo.
Precisa revisar seu histórico de supercomputação? Assista o vídeo!

Os humanos sempre tiveram uma queda por construir grandes. A história está repleta de restos de Grandes Muralhas, pirâmides e coliseus, cada um levando os engenheiros a imaginar o próximo grande passo à frente. Agora temos edifícios como o Burj Khalifa, com sua altura imponente de 2.716,5 pés ou 828 metros, como testemunho de nossa natureza competitiva - e criativa. E não importa o quão alto vamos, sempre há algum arquiteto silenciosamente traçando planos para a próxima grande coisa.

O mesmo vale para o mundo da computação , exceto que mais alto é igual a menor e mais frio significa mais rápido. Essa indústria faz com que o ritmo de construção dos edifícios mais altos do mundo pareça absolutamente glacial. Graças à lista semestral de supercomputadores Top500 cuidadosamente compilada por Hans Meuer, Erich Strohmaier, Horst Simon e Jack Dongarra, podemos ver a rapidez com que a indústria avança. Os três primeiros em 2012 terão a sorte de ocupar um dos 20 primeiros lugares em dois anos.

O poder de processamento em supercomputadores (ou computadores de alto desempenho, para aqueles que apontam que "super" é um termo relativo) é classificado em FLOPS , abreviação de operações de ponto flutuante por segundo . Uma operação de ponto flutuante é basicamente uma computação usando números fracionários, então flops é uma medida de quantos deles podem ser executados por segundo. Os principais supercomputadores são medidos em petaflops (1.000.000.000.000.000 ou 1 quatrilhão de flops). O primeiro sistema a quebrar a barreira dos 10 petaflops foi o K Computer do Japão no início de 2012. Naquele verão, o Sequoia do Lawrence Livermore National Laboratory estava funcionando ainda mais rápido. Sim, a concorrência se move tão rapidamente.

Embora o primeiro lugar esteja em constante fluxo, os principais locais de supercomputação geralmente são os Estados Unidos, o Japão e a Europa. A China também entrou em cena com grandes ambições de ser líder. Neste artigo, vamos parar por 10 sites explodindo o telhado da supercomputação. Eles estão na lista por uma combinação de dois motivos: número total de petaflops e seu impacto no mundo da supercomputação. A maioria são líderes de longa data, mas você também verá alguns recém-chegados ao campo que abalaram o establishment. A primeira é uma agência espacial.

Conteúdo
  1. Divisão de Supercomputação Avançada da NASA (EUA)
  2. Centro Nacional de Supercomputação em Shenzhen (China)
  3. Jülich Supercomputing Center (Alemanha)
  4. Cineca (Itália)
  5. Laboratório Nacional de Oak Ridge (EUA)
  6. Centro Nacional de Supercomputação em Tianjin (China)
  7. Leibniz-Rechenzentrum (Alemanha)
  8. Laboratório Nacional de Argonne (EUA)
  9. Riken (Japão)
  10. Laboratório Nacional Lawrence Livermore (EUA)

10: Divisão de Supercomputação Avançada da NASA (EUA)

Awww sim. A equipe de corte de fita da NASA para as Plêiades se prepara para comemorar em 11 de dezembro de 2008.

Você sabe do que uma dessas maravilhas tecnológicas é realmente capaz? A divisão Advanced Supercomputing (NAS) da NASA no Ames Research Center tem o prazer de explicar. Afinal, Pleiades é o supercomputador por trás de alguns dos projetos de computação extraterrestre mais legais do mercado.

Astrônomos do Centro de Operações Científicas Kepler da NASA estão usando as Plêiades para pesquisar imagens da galáxia em busca de outros planetas semelhantes à Terra. Graças às Plêiades, a equipe descobriu um planeta que orbita duas estrelas, chamado planeta circumbinário , em 2011. Alguns meses depois, eles descobriram mais planetas multiestrelas , estabelecendo toda uma nova classe de sistemas planetários [fonte: Dunbar ].

E quando as Plêiades não estavam ocupadas descobrindo novos sistemas estelares ou revelando as forças que fazem os furacões funcionarem, estavam fazendo simulações para entender como as galáxias se formaram após o big bang. Sim, o sistema SGI pode executar a matemática necessária para calcular galáxias inteiras, graças ao seu desempenho de 1,24 petaflops [fonte: Dunbar ].

Veja crianças, é assim que você supercomputa. É tudo uma questão de pensar grande – às vezes astronomicamente grande.

9: Centro Nacional de Supercomputação em Shenzhen (China)

Manning um dos supercomputadores do Instituto Coreano de Ciência e Tecnologia da Informação

Enquanto as pessoas que trabalham com computadores de alto desempenho tendem a dizer que as máquinas existem para aprofundar a ciência, o fato é que ser um jogador no campo de supercomputadores oferece um certo nível de status ao país anfitrião. Nenhum outro programa nacional exemplifica isso melhor do que a China .

Como quase tudo o que é grande na China hoje, se você retroceder o calendário apenas alguns anos, não encontrará nenhum vestígio do Centro Nacional de Supercomputação em Shenzhen. Junto com suas instalações irmãs em Tianjin (veja o nº 5), o computador Nebulae de Shenzhen entrou em cena em 2010 no segundo lugar sem histórico anterior no campo. A chegada repentina de um computador de 1,27 petaflop na China foi um divisor de águas para laboratórios estabelecidos há muito tempo em outras partes do mundo. No início dos anos 2000, os chineses queriam se tornar uma força dominante nesse campo e, cerca de uma década depois, passaram de zero a heróis.

Nebulae (fabricado pelo fornecedor chinês Dawning) provavelmente não está abrindo muito caminho desde sua estreia. O financiamento carrega parte da culpa. Como os governos locais pagaram grande parte da conta do computador (que custou mais de US$ 1 bilhão), eles têm uma grande influência sobre os projetos em que a Nebulae trabalhará. O sistema foi originalmente planejado para fazer cálculos para astrofísicos, mas na verdade passou muito tempo desenvolvendo projetos econômicos locais, como avanços na indústria aeroespacial, previsão do tempo aprimorada e até mesmo desenvolvendo filmes de animação [fonte: Davis ]. É um trabalho humilhante para um dos maiores supercomputadores do mundo – como contratar Stephen Hawking para um retentor de pesquisa, mas fazê-lo dar aulas de álgebra para seu filho adolescente.

8: Jülich Supercomputing Center (Alemanha)

Quando se trata de supercomputação , o Jülich Supercomputing Center opera com o mesmo princípio de “nenhum trabalho é muito grande ou muito pequeno” que todo trabalhador manual na lista telefônica. Em junho de 2012, o centro entrou na lista Top500 em 8º lugar com JuQueen , seu IBM Blue Gene/Q de 1,38 petaflop (você verá muitos sistemas de supercomputação Blue Gene nesta lista). Ele complementa o JuGene, um Blue Gene/P (recebeu uma atualização em 2009 para torná-lo o primeiro computador petaflop da Europa), e JuRopa, um sistema baseado em Sun.

Com todo esse poder, Jülich tornou-se um centro de simulação computacional e de pesquisa para muitas disciplinas fascinantes: sistemas quânticos, ciências climáticas, física de plasma, biologia, sistemas moleculares e modelagem e algoritmos matemáticos .

Chame isso de estereótipo, mas os alemães são loucos por eficiência. Eles - como os chineses - começaram a incorporar unidades de processamento gráfico (GPUs) em seus sistemas para alcançar velocidades computacionais mais altas usando menos energia. O objetivo é eventualmente cruzar essa linha mágica de exascale (veja a barra lateral). O futuro da supercomputação pode não estar tão distante quanto pensamos.

Exascale: o próximo salto gigante

Especialistas em computadores chineses - e outros fabricantes - já estão falando em atingir níveis de processamento em exascale, que é basicamente um aumento de mil vezes acima da petascale. O consumo elétrico, no entanto, é o maior obstáculo. Um computador exascale exigiria cerca de uma Hoover Dam de eletricidade para alimentá-lo [fonte: Hsu ].

7: Cineca (Itália)

Durante anos, a Itália esteve envolvida em supercomputação , mas só recentemente emergiu como um jogador importante no campo. Deve essa posição recém-descoberta em parte ao Cineca High-Performance Computing Center, um consórcio acadêmico de mais de 50 universidades italianas. Desde que as pessoas passaram a classificar os principais supercomputadores do mundo , o Cineca ocupou um lugar, geralmente perto do meio [fonte: Top500 ]. No entanto, em junho de 2012, o centro entrou no top 10 pela primeira vez com o FERMI , um sistema IBM Blue Gene/Q de 1,72 petaflops que é, na verdade, o mais recente de uma longa linha de produtos IBM e Cray na história da Cineca.

Com financiamento suficiente, muitas organizações podem se tornar parte da elite da supercomputação, mas o Cineca entra neste artigo por duas razões: primeiro, ela sempre manteve uma série agressiva de computadores e, segundo, está se tornando uma força unificadora no mercado internacional. Informática

Iniciado em setembro de 2012, o iCORDI é um fórum internacional entre agências de computação da UE e dos EUA. O objetivo é desenvolver estruturas de dados universais entre os dois grupos que tornem o compartilhamento de informações e pesquisas mais simples e fácil. O Cineca se posicionou como líder em ciências da terra sólida, que abrange desde a tectônica até a temperatura dos oceanos. Com seu novo papel e computadores mais poderosos, a Itália não parece estar dizendo ciao ao cenário internacional tão cedo.

Acabei de conhecer um supercomputador chamado Blue Gene

Deixando todas as desculpas para David Bowie à parte, lembre-se de como o Deep Blue da IBM derrotou o grand poobah do xadrez Garry Kasparov? Esse supercomputador era apenas um dos vários sistemas "azuis" pelos quais a Big Blue trabalhou. As encarnações mais recentes incluem o Blue Gene/L, o Blue Gene/P e o Blue Gene/Q, o último dos quais foi coroado o supercomputador mais rápido do mundo em junho de 2012. Esse não é um título que qualquer computador de alto desempenho detém para longo embora.

6: Laboratório Nacional de Oak Ridge (EUA)

Você já teve um daqueles amigos que está de volta à concessionária no momento em que o cheiro de carro novo desaparece de seu último veículo? Isso é muito próximo do que os rankings do Oak Ridge National Laboratory (ORNL) se parecem; você pode esperar que o novo sistema atual seja atualizado ou substituído pelo novo modelo em alguns anos.

Além da rotatividade agressiva, outro fato interessante sobre o ORNL é o uso de sistemas criados pela Cray (ultimamente, muitos dos principais players dos EUA executam sistemas Blue Gene criados pela IBM). Em 2012, seu sistema Jaguar XT5 estava sendo atualizado para o novo sistema XK6 Titan. Essas mudanças de nome extravagantes ajudarão o sistema a saltar de 1,94 petaflops para algo entre 10 e 20 petaflops , o que pode colocá-lo perto do topo do ranking mundial.

O Titan usa uma combinação de CPUs da AMD e GPUs da NVIDIA para realizar pesquisas para o Departamento de Energia dos EUA, incluindo o estudo do efeito da extensão dos ciclos de vida das usinas nucleares, a viabilidade de novos biocombustíveis , dinâmica populacional, desenvolvimento de tecnologia solar e modelagem de mudanças climáticas. Quando a usina japonesa de Fukushima Daiichi foi danificada no terremoto e no tsunami que se seguiu em 2011, os pesquisadores do ORNL dedicaram longas horas para simular alguns dos cenários de emergência na usina nuclear [fonte: Munger ].

Construindo a bomba

O ORNL começou como Clinton Engineering Works, parte do Projeto Manhattan que construiu as primeiras armas atômicas durante a Segunda Guerra Mundial. Em questão de alguns anos, a terra no ORNL havia se transformado de fazendas rurais nos Apalaches do Tennessee em uma cidade secreta de engenheiros e trabalhadores.

5: Centro Nacional de Supercomputação em Tianjin (China)

Em 2001, os chineses não ocupavam um único lugar na lista dos 500 melhores; hoje eles são o segundo em número de instalações apenas para os Estados Unidos. E eles levaram seu objetivo ambicioso para casa ligando o sistema no Centro Nacional de Supercomputação em Tianjin (perto de Pequim).

O computador Tianhe-1A atinge o pico de quase 2,56 petaflops e lançou o Centro Nacional de Supercomputação no topo da lista internacional no início de 2010. Essa foi a primeira entrada do centro na lista. A comunidade internacional não poderia ignorar esse tipo de entrada no mercado – muitas vezes é chamado de momento Sputnik da supercomputação da China.

Infelizmente, Tianhe-1A sempre foi visto com certo nível de crítica. Sua composição envolve uma combinação de CPUs e GPUs (unidades de processamento gráfico) para atingir sua velocidade. As GPUs oferecem uma maneira eficiente de adicionar poder de processamento significativo a um supercomputador. O problema é que poucos softwares chineses para computação de alto desempenho eram compatíveis com sistemas baseados em GPU. Os detratores de Tianhe-1A gostam de chamar essa máquina de jogo maior e pior no cenário internacional. Cientistas chineses contestam esse argumento apontando o fato de que o Tianhe-1A é usado para pesquisas reais, particularmente nas áreas de energia e exploração mineral [fonte: Lim ].

O fato é que Tianhe-1A foi uma conquista bastante óbvia e bem-sucedida no título mundial, mas também desmentiu o status de recém-chegado da China em supercomputação e mostrou as áreas que ainda precisam desenvolver. Dado o compromisso do país em liderar neste campo, não demorará muito para que os bugs sejam resolvidos em sua iniciativa de computação.

4: Leibniz-Rechenzentrum (Alemanha)

Imagine ir para a escola em uma universidade que tinha um supercomputador de 2,89 petaflops escondido. Ah, as sessões de Warcraft que você teria! Falando sério, o Leibniz Computing Center se destaca por alguns motivos: primeiro, foi o computador de alto desempenho mais rápido da Europa em setembro de 2012. Além disso, é o sistema mais rápido desta lista que é administrado por uma instituição acadêmica, Bayerische Akademie der Wissenschaften, perto de Munique.

O sistema IBM compatível com Intel apelidado de SuperMUC , que estreou na lista Top500 em 4º lugar em junho de 2012, é usado em muitas disciplinas - ao contrário dos computadores de Argonne e Lawrence Livermore que têm áreas de pesquisa mais rígidas. Dinâmica de fluidos e aerodinâmica de carros são alguns dos primeiros testes que estão sendo calculados na máquina de Leibniz, e o sistema também está avançando na modelagem de terremotos .

O que talvez seja mais impressionante é o uso de supercomputadores por Leibniz para a educação. Onde outras instalações parecem manter as mãos sujas de todos longe de seus computadores, Leibniz tem uma abordagem mais aberta que torna o acesso ao aprendizado sobre computação de alto desempenho mais acessível [fonte: Jülich ].

PREOCUPADO COM A DESCOBERTA

You'd think that Europe's Large Hadron Collider would be equipped with one of the most powerful supercomputers in the world but not really. The European Organization for Nuclear Research (CERN) relies on grid computing -- using one main computer to harness computers at other sites to help run the numbers -- to get the job done. CERN's system made the Top 500 list in 2007 but eventually fell out of standing [source: Hämmerle and Crémel].

3: Argonne National Laboratory (U.S.)

There's Argonne's supercomputer Mira, which ranked as the world's third-fastest supercomputer in June 2012.

Spoiler alert! Two of the top three spots on this list are from the United States Department of Energy (DOE). Researchers at the No. 1 spot are virtually blowing stuff up for the U.S. nuclear program, while the crew at Argonne National Laboratory is quietly working away on its science experiments. Sort of.

Argonne was the first national science and engineering computer lab in the United States, opening in 1946 and using its first computer in 1953. So many of the last century's great technological advances came by way of Argonne's labs, including nuclear reactor technology, nuclear submarine technology and research on subatomic particles.

Em 2012, os 8,16 petaflops de poder de supercomputação de Argonne foram usados ​​para avançar em muitos campos diferentes de pesquisa científica, desde biociências até transporte e pesquisa climática. Quer descobrir se a ponte suspensa proposta da sua cidade vai desabar com ventos fortes? O pessoal de Argonne pode simular todas as forças envolvidas. Depois disso, eles podem fornecer os dados mais recentes de previsão de mudanças climáticas.

Outra grande parte do programa de computação de Argonne ? Está aberto a muitos pesquisadores fora do DOE. Os pesquisadores solicitam tempo no sistema de Argonne e recebem um determinado número de horas no sistema. Pense nisso como uma forma altamente elevada de ajudar uma nação com seu dever de casa de ciências.

2: Riken (Japão)

O número 1 é um ponto difícil de se manter no jogo de supercomputação , como testemunha K Computer no Riken Advanced Institute for Computational Science do Japão. Em meados de 2011, a máquina fabricada pela Fujitsu estava em funcionamento e, no final do ano, sua instalação estava concluída; ele havia acabado de se tornar o primeiro computador a ultrapassar a barreira dos 10 petaflops [fonte: Metz ]. K Computer conquistou o primeiro lugar na lista mundial em janeiro de 2012. Mas antes que as garrafas comemorativas de saquê esfriassem, o novo computador nº 1 do mundo já estava sendo instalado.

Isso não quer dizer nada contra a força do K Computer. É um sistema de computador extremamente poderoso capaz de algumas pesquisas surpreendentes. Muito de seu trabalho estará relacionado ao avanço médico. Por exemplo, as equipes de pesquisa de Riken usam simulação de computador para estudar e prever processos biológicos no corpo humano nos níveis molecular, genético, celular e orgânico.

Finalmente, uma outra lição sobre competição internacional a ser tirada da K Computer tem tanto a ver com a China quanto com o Japão. Os japoneses são líderes em supercomputação há muito tempo, mas como tudo na Ásia, a pressão de uma China em ascensão tecnológica está levando todos a trabalhar mais. O Japão não escondeu suas intenções de permanecer no topo.

1: Laboratório Nacional Lawrence Livermore (EUA)

É o avô e a grande mãe da supercomputação dos EUA, tudo em um. O Laboratório Nacional Lawrence Livermore começou como uma instalação de testes de tecnologia nuclear fora da área da Baía de São Francisco em 1952. Foi quando os pesquisadores usaram uma antiga enfermaria naval para abrigar o primeiro computador da instalação. Desde que a primeira máquina foi instalada, o Livermore Lab está entre a elite mundial da computação. É verdade que seu primeiro smartphone provavelmente teve mais velocidade de processamento do que o primeiro computador, mas as máquinas de Livermore sempre estiveram no centro do programa nuclear dos Estados Unidos.

Por mais de 60 anos, é aqui que o Departamento de Defesa dos EUA (DoD) estuda reações e detonações nucleares. Hoje, toda vez que o DoD altera uma peça de hardware em seu arsenal nuclear, ele é executado nos simuladores de Livermore para garantir que os sistemas ainda funcionem se forem usados.

O laboratório lançou o Sequoia em 2012, seu monstro IBM Blue Gene/Q de 16,32 petaflops . Este sistema supostamente pode calcular todas as reações e interações em uma explosão nuclear em cerca de uma semana. Seu antecessor levou cerca de um mês para fazer a mesma tarefa. E para colocar isso em uma perspectiva ainda maior, seu laptop levaria cerca de 1.600 anos para fazer o trabalho [fonte: Derene ].

A necessidade de velocidade

Os Laboratórios Nacionais dos EUA, que operam muitos dos principais supercomputadores do mundo, fazem parte do Departamento de Energia.

Muito Mais Informações

Nota do autor: 10 jogadores importantes em supercomputadores

Indo para este artigo, eu realmente não sabia o que esperar. Eu estava com medo de que a informação fosse mais seca do que um pedaço de torrada de um dia. Mas enquanto pesquisava os diferentes laboratórios, fiquei impressionado com a variedade de trabalhos para os quais esses computadores estão sendo usados ​​- tudo, desde pesquisa médica, pesquisa espacial, previsão climática e até animação. Bravo, supercomputadores e as pessoas que dirigem você. Bravo!

Artigos relacionados

  • 5 tendências futuristas em supercomputação
  • Para que são usados ​​os supercomputadores atualmente?
  • O que é poder computacional?
  • Os computadores ultrapassarão os humanos em capacidade intelectual?
  • Os 10 principais supercomputadores

Origens

  • "Cineca". Top 500 sites de computador. Junho de 2012. (2 de setembro de 2012) http://i.top500.org/site/47495
  • Derene, Glenn. "Como a IBM construiu o computador mais poderoso do mundo." Mecânica Popular. 28 de dezembro de 2011. (27 de agosto de 2012) http://www.popularmechanics.com/technology/engineering/extreme-machines/how-ibm-built-the-most-powerful-computer-in-the-world
  • Davis, Bob. "Os não-tão-supercomputadores da China." Jornal de Wall Street. Março de 2013. (1º de setembro de 2012) http://online.wsj.com/article/SB10001424052702303812904577298062429510918.html
  • Dunbar, Jill. "Procurando por planetas irmãos." Centro de Pesquisa Ames da NASA. 6 de março de 2012. (29 de agosto de 2012) http://www.nas.nasa.gov/publications/articles/feature_sister_planets_Kepler.html
  • Dunbar, Jill e Jenvey, Karen. "Supercomputador da NASA permite as maiores simulações cosmológicas" NASA Ames Research Center. 29 de setembro de 2011. http://www.nasa.gov/centers/ames/news/releases/2011/11-77AR.html
  • Hämmerle, Hannelore e Nicole Crémel. "O CERN chega ao TOP500 de supercomputação." Correio Cern. 20 de agosto de 2007. (29 de agosto de 2012) http://cerncourier.com/cws/article/cern/30870
  • HU, Jeremy. "Supercomputador 'Titãs' enfrentam enormes custos de energia" . Notícias MSNBC. 23 de janeiro de 2012. (1º de setembro de 2012) http://www.msnbc.msn.com/id/46077648/ns/technology_and_science-innovation/t/supercomputer-titans-face-huge-energy-costs
  • Lima, Luísa. "O objetivo de supercomputação da China: de 'zero a herói'." Todas as coisas consideradas. 2 de agosto de 2011. (1 de setembro de 2012) http://www.npr.org/2011/08/02/138901851/chinas-supercomputing-goal-from-zero-to-hero
  • Metz, Cade. "Japão empurra o computador mais rápido do mundo além da barreira de 10 petaflops." 2 de novembro de 2011. (30 de agosto de 2012) http://www.wired.com/wiredenterprise/2011/11/japanese_megamachine/