Equipe cria simulações da estrutura da Via Láctea
LarLar > blog > Equipe cria simulações da estrutura da Via Láctea

Equipe cria simulações da estrutura da Via Láctea

Jul 02, 2023

18 de novembro de 2014

por Katie Elyce Jones, Laboratório Nacional de Oak Ridge

Se você tirasse uma fotografia da Via Láctea hoje à distância, a foto mostraria uma galáxia espiral com uma barra central brilhante (às vezes chamada de bojo) de densas populações de estrelas. O Sol – muito difícil de ver na sua foto – estaria localizado fora desta barra, perto de um dos braços espirais compostos de estrelas e poeira interestelar. Além da galáxia visível, haveria um halo de matéria escura – invisível para a sua câmera, mas importante, no entanto, porque mantém tudo unido, reduzindo a velocidade de rotação da barra e dos braços espirais.

Agora, se você quisesse voltar no tempo e gravar um vídeo da formação da Via Láctea, poderia voltar 10 bilhões de anos, mas muitas das características proeminentes da galáxia não seriam reconhecíveis. Seria necessário esperar cerca de 5 bilhões de anos para testemunhar a formação do sistema solar da Terra. Neste ponto, há 4,6 mil milhões de anos, a galáxia parece quase como é hoje.

"A grande estrutura da galáxia emergiu da auto-organização da distribuição estelar ao longo dos últimos 10 mil milhões de anos para eventualmente parecer-se com a Via Láctea na fotografia," disse Simon Portegies Zwart do Observatório de Leiden, na Holanda.

Esta é a linha do tempo que uma equipe de pesquisadores da Holanda e do Japão, incluindo Portegies Zwart, está vendo surgir quando usam supercomputadores para simular a evolução da Via Láctea. Usando um código desenvolvido para arquiteturas de supercomputação GPU - incluindo o do Cray XK7 Titan localizado no Laboratório Nacional Oak Ridge do Departamento de Energia - as simulações da equipe foram aceitas como finalistas do Prêmio Gordon Bell. O prêmio reconhece conquistas notáveis ​​em computação de alto desempenho e será entregue pela Association for Computing Machinery na SC14 em 20 de novembro.

“Não sabemos realmente como surgiu a estrutura da galáxia”, disse Portegies Zwart. "O que percebemos é que podemos usar as posições, velocidades e massas das estrelas no espaço tridimensional para permitir que a estrutura emerja da autogravidade do sistema."

O desafio de calcular a estrutura galáctica estrela por estrela é, como você pode imaginar, o grande número de estrelas na Via Láctea – pelo menos 100 bilhões. Portanto, a equipe precisava de pelo menos uma simulação de 100 bilhões de partículas para conectar todos os pontos. Antes do desenvolvimento do código da equipe, conhecido como Bonsai, a maior simulação de galáxia ultrapassava cerca de 100 milhões – e não bilhões – de partículas.

A equipe testou uma versão inicial do Bonsai no Titan do Oak Ridge Leadership Computing Facility, o segundo supercomputador mais poderoso do mundo, para melhorar a escalabilidade do código. Depois de dimensionar o Bonsai para quase metade dos nós da GPU de Titã, a equipe executou o Bonsai no supercomputador Piz Daint no Swiss National Supercomputing Center e simulou a formação de galáxias ao longo de 6 bilhões de anos com 51 milhões de partículas representando as forças das estrelas e da matéria escura. Após uma execução bem-sucedida do Piz Daint, a equipe retornou ao Titan para maximizar o paralelismo do código.

O código Bonsai demonstrou escalabilidade em 18.600 nós Titan (96% dos nós GPU da máquina), o que permitiria uma simulação da Via Láctea de 8 milhões de anos e 242 bilhões de partículas. Bonsai alcançou quase 25 petaflops de desempenho sustentado de precisão simples e ponto flutuante no Titan. As operações de ponto flutuante de precisão simples usam menos memória ao representar números usando 32 bits, enquanto as operações de precisão dupla representam números mais precisos às custas do uso de 64 bits.

“Com o estudante de pós-graduação Jeroen Bédorf, começamos escrevendo código único para GPUs e deliberadamente nunca escrevemos código em CPUs porque queríamos que todo o código fosse executado em GPUs para explorar seu paralelismo”, disse Portegies Zwart. “As CPUs host são usadas apenas para agilizar a comunicação entre os nós e as GPUs. Dessa forma, podemos otimizar totalmente o uso de GPUs para processamento de números e CPUs muito mais lentas para minimizar a sobrecarga de comunicação.”