Instalação das lâminas do supercomputador Aurora concluída.

A instalação das 10.624 lâminas do Aurora contendo a família de produtos Intel Max Series marca um marco importante para a computação exascale

Notícias

  • 22 de junho de 2023

  • Entre em contato com o PR da Intel

  • Siga a redação da Intel nas redes sociais:

    Logotipo do Twitter
    Ícone do YouTube

author-image

Por

(Crédito: Laboratório Nacional Argonne)

O que há de novo: O supercomputador Aurora no Laboratório Nacional de Argonne está agora totalmente equipado com todas as 10.624 lâminas de computação, com 63.744® Intel Data Center GPU Série Max e 21.248 processadores Intel® Xeon® CPU Max Series.

"Aurora é o primeiro uso do GPU Max Series da Intel, o maior sistema baseado em CPU Xeon Max, e o maior cluster de GPU do mundo. Estamos orgulhosos por fazer parte deste sistema histórico e animados com as inovações em IA, ciência e engenharia que o Aurora possibilitará.

— Jeff McVeigh, vice-presidente corporativo da Intel e gerente geral do Super Compute Group

O Aurora é: Uma colaboração entre Intel, Hewlett Packard Enterprise (HPE) e o Departamento de Energia (DOE), o supercomputador Aurora foi projetado para desbloquear o potencial dos três pilares da computação de alto desempenho (HPC): simulações, análise de dados e inteligência artificial (IA) em uma escala extremamente grande. O sistema incorpora mais de 1.024 nós de armazenamento (utilizando o DAOS, armazenamento de objeto assíncrono distribuído da Intel), fornecendo uma capacidade de 220 petabytes (PB) a uma taxa de transferência total de 31 terabytes por segundo, e utiliza o HPE Slingshot, uma malha de alta performance. No final deste ano, Aurora deverá ser o primeiro supercomputador do mundo a atingir um desempenho de pico teórico de mais de 2 exaflops (um exaflop é de10 18 ou um bilhão de operações por segundo) quando ele entra na lista TOP500.

Aurora aproveitará toda a potência da família de produtos de GPU e CPU Intel Max Series. Projetados para atender às demandas de cargas de trabalho dinâmicas e emergentes de HPC e IA, os resultados antecipados com as GPUs max series demonstram desempenho líder em cargas de trabalho de ciência e engenharia do mundo real, mostrando até 2 vezes o desempenho das GPUs AMD MI250X no OpenMC e escalamento quase linear de até centenas de nós. 1 A CPU Intel Xeon série Max oferece uma vantagem de 40% de desempenho em comparação com a concorrência em muitas cargas de trabalho de HPC do mundo real, como modelagem de sistemas terrestres, energia e fabricação. 2

Por que isso importa: Desde combater as mudanças climáticas até encontrar curas para doenças mortais, os pesquisadores enfrentam desafios monumentais que exigem tecnologias avançadas de computação em grande escala. Aurora está preparado para atender às necessidades das comunidades de HPC e IA, fornecendo as ferramentas necessárias para ultrapassar os limites da exploração científica.

"Enquanto trabalhamos nos testes de aceitação, vamos utilizar o Aurora para treinar alguns modelos de IA generativa de código aberto em larga escala para a ciência", disse Rick Stevens, diretor associado do Laboratório Nacional Argonne. "Aurora, com mais de 60.000 GPUs Intel Max, um sistema de E/S muito rápido e um sistema de armazenamento em massa totalmente em estado sólido, é o ambiente perfeito para treinar esses modelos."

Baixe todas as imagens (ZIP, 45 MB)

Como funciona: No centro deste sistema de última geração estão as elegantes lâminas retangulares da Aurora, processadores de habitação, memória, redes e tecnologias de resfriamento. Cada lâmina consiste em duas CPUs da série Intel Xeon Max e seis GPUs Intel Max Series. A família de produtos Xeon Max Series já está demonstrando um excelente desempenho inicial na Sunspot, o sistema de testes e desenvolvimento com a mesma arquitetura Aurora. Os desenvolvedores estão utilizando ferramentas oneAPI e IA para acelerar cargas de trabalho de HPC e IA e melhorar a portabilidade de código em várias arquiteturas.

A instalação dessas lâminas foi uma operação delicada, com cada lâmina de 70 libras requerendo maquinário especializado para ser integrada verticalmente nos racks do tamanho de um refrigerador do Aurora. Os 166 racks do sistema acomodam 64 lâminas cada e se estendem por oito fileiras, ocupando um espaço equivalente a dois campos de basquete profissional no centro de dados do Argonne Leadership Computing Facility (ALCF).

Pesquisadores do Programa de ciênciaPesquisadores do Programa de Ciência Antecipada (ESP) do Aurora do ALCF e do Projeto de Computação Exascalar do DOE migrarão seus trabalhos para o novo sistema do Sunspot para o Aurora. Esta transição permitirá que eles escalonem suas aplicações no sistema completo. Os usuários iniciais realizarão testes de estresse no supercomputador e identificarão possíveis bugs que precisam ser resolvidos antes da implantação. Isso inclui esforços para desenvolver modelos de IA generativos para a ciência, recentemente anunciados na conferência ISC'23.

Mais contexto: Uma prévia do laboratório de supercomputação da Intel | Intel mergulha no futuro do resfriamento | Portfólio amplo e aberto de HPC+IA potencialize o desempenho, IA generativa para ciência | GPU Intel® Data Center Série Max (Resumo do produto) | Intel Xeon cpu max série (resumo do produto) | Aurora: HPC e IA na Exascale, Blade Video (Intel Vision 2022)

Nota do editor: Após a publicação em 22 de junho de 2023, correções foram feitas nesta história para descrições dos recursos de armazenamento do sistema.

As letras miúdas:

Isenções de responsabilidade e configuração:

A Intel não controla ou audita dados de terceiros. Você deve consultar outras fontes para avaliar a precisão.

1 Sunspot, INTEL® Data Center GPU Max 1550: testes realizados em 12/05/2023 pelo Laboratório Nacional argonne. Cada nó: CPU máxima de 2x 52C Intel® Xeon®, GPU® Intel Data Center Max Polaris, NVIDIA A100: testes realizados em 12/05/2023 pelo Laboratório Nacional argonne. Cada nó: 1x AMD EPYC Milan, 4x NVIDIA A100 40G PCIe Crusher, AMD Instinct MI250X: testes realizados em 12/05/2023 pelo Laboratório Nacional argonne. Cada nó: 1x AMD EPYC otimizado da 3ª Geração, 4x AMD Instinct MI250X a Intel não controla ou audita dados de terceiros. Você deve consultar outras fontes para avaliar a precisão.

2 Geomean de 5 cargas de trabalho [HPCG, NEMO-GYRE, propagação de ondas anelásticas, BlackScholes, OpenFOAM]

  • HPCG
    • Configuração da Intel: 1 nó, 2x Intel® Xeon® max 9480, HT on, turbo on, SNC4, memória total de 128 GB (HBM2 3200MT/s de 8x16 GB), VERSÃO DO BIOS SE5C7411.86B.8424.D03.2208100444, revisão de ucode=0x2c000020, CentOS Stream 8, Linux versão 5.19.0-rc6.0712.intel_next.1.x86_64+servidor, HPCG de MKL_v2022.1.0. Teste da Intel em 2/09/2022. Configuração da AMD: 1 nó, 2x AMD EPYC 9654, HT On, Turbo On, CTDP=360W, NPS=4, DDR5-4800 de 1536 GB, BIOS 1.2, microcódigo 0xa101111, Red Hat Enterprise Linux 8.7, Kernel 4.18, binário oficial da AMD. Teste pela Intel em 27/03/23.
  • NEMO-GYRE
    • Configuração da Intel: 1 nó, 2x Intel® Xeon® 9480 no máximo, HT ON, Turbo ON, configuração NUMA SNC4, Memória total de 128 GB (HBM2e a 3200 MHz), VERSÃO DO BIOS SE5C7411.86B.8424.D03.2208100444, revisão de ucode=0x2c000020, CentOS Stream 8, Versão Linux 5.19.0-rc6.0712.intel_next.1 .x86_64+servidor, NEMO v4.2 com Intel® Fortran Compiler Classic e Intel® MPI de 2022.3 Intel® oneAPI HPC Toolkit com sinalizadores de compilador "-i4 -r8 -O3 -fno-alias -march=core-avx2 - fp-model fast=2 -no-prec-div -no-prec-sqrt -alinhar array64byte -fimf-usesvml=true". Teste da Intel em 12/10/2022. configuração amd: 1 nó, 2x AMD EPYC 9654, HT on, Turbo on, CTDP=360W, NPS=4, DDR5-4800 de 1536 GB, BIOS 1.2, microcódigo 0xa101111, Red Hat Enterprise Linux 8.7, Kernel 4.18, NEMO versão 4.2 compilada com Intel® Fortran Compiler Classic e Intel® MPI a partir de 2022.3 Intel® oneAPI HPC Toolkit com sinalizadores de compilador "-O3 -xCORE-AVX2". Teste pela Intel em 27/03/23.
  • Propagação de ondas anelásticas
    • Configuração da Intel: 1 nó, 2x Intel® Xeon® máximo 9480, HT On, Turbo On, SNC4, HBM2e de 128 GB, VERSÃO DO BIOS SE5C7411.86B.8424.D03.2208100444, revisão de notas de desempenho ucode=0x2c000020, CentOS Stream 8, Linux versão 5.19, YASK v3.05.07 . Teste da Intel em 2/09/2022. configuração amd: 1 nó, 2x AMD EPYC 9654, HT On, Turbo On, CTDP=360W, NPS=4, DDR5-4800 de 1536 GB, BIOS 1.2, microcódigo 0xa101111, Red Hat Enterprise Linux 8.7, Kernel 4.18, YASK v3.05.07. Teste pela Intel em 27/03/23.
  • BlackScholes
    • Configuração da Intel: 1 nó, 2x Intel® Xeon® max 9480,HT on, turbo on, SNC4, memória total de 128 GB (8x16 GB HBM2 3200MT/s), VERSÃO DO BIOS SE5C7411.86B.8424.D03.2208100444, revisão de ucode=0x2c000020, CentOS Stream 8, Linux versão 5.19.0-rc6.0712.intel_next.1.x86_64+servidor, Black Scholes v1.4. Teste da Intel em 2/09/2022. configuração amd: 1 nó, 2x AMD EPYC 9654, HT On, Turbo On, CTDP=360W, NPS=4, DDR5-4800 de 1536 GB, BIOS 1.2, microcódigo 0xa101111, Red Hat Enterprise Linux 8.7, Kernel 4.18, Black Scholes v1.4. Teste pela Intel em 27/03/23.
  • OpenFOAM
    • Esta oferta não é aprovada ou endossada pela OpenCFD Limited, produtora e distribuidora do software OpenFOAM via www.openfoam.com, e proprietária da marca comercial OPENFOAM® e OpenCFD®
    • Configuração da Intel: 1 nó, 2x Intel® Xeon® max 9480, HT on, turbo on, SNC4, memória total de 128 GB (8x16 GB HBM2 3200MT/s), VERSÃO DO BIOS SE5C7411.86B.8424.D03.2208100444, revisão de ucode=0x2c000020, CentOS Stream 8, Versão Linux 5.19.0-rc6.0712.intel_next.1.x86_64+servidor, OpenFOAM 8, Moto 20M @ 250 iterações, Moto 42M @ 250 iterações. Teste da Intel em 2/09/2022. configuração amd: 1 nó, 2x AMD EPYC 9654, HT On, Turbo On, CTDP=360W, NPS=4, DDR5-4800 de 1536 GB, BIOS 1.2, microcódigo 0xa101111, Red Hat Enterprise Linux 8.7, Kernel 4.18, OpenFOAM 8, Moto 20M @ 250 iterações, Moto 42M @ 250 iterations. Teste pela Intel em 27/03/23.