Portfólio abrangente de HPC+AI impulsiona desempenho, IA generativa para ciência

Na ISC'23, a Intel detalha o desempenho competitivo para cargas de trabalho diversas de HPC e IA, desde aquelas limitadas pela memória até IA generativa, e apresenta a nova iniciativa Science LLM para democratizar a IA.

Notícias

  • 22 de maio de 2023

  • Entre em contato com o PR da Intel

  • Siga a redação da Intel nas redes sociais:

    Logotipo do Twitter
    Ícone do YouTube

author-image

Por

Destaques de notícias
 

  • O amplo portfólio de produtos de HPC e IA da Intel oferece desempenho competitivo, com a série Intel® Data Center GPU Max 1550 mostrando um aumento médio de velocidade de 30% em relação ao Nvidia H100 em uma ampla gama de cargas de trabalho científicas. 1
  • Atualizações do roadmap do produto destacam o Granite Rapids, uma CPU de próxima geração para lidar com as demandas de largura de banda da memória, e o Falcon Shores GPU para atender a um conjunto diversificado e em expansão de cargas de trabalho de HPC e IA.
  • O Laboratório Nacional Argonne e a Intel anunciam as especificações completas do Aurora, o momento do sistema e uma iniciativa internacional com a Hewlett Packard Enterprise (HPE) e parceiros para levar o poder da IA generativa e modelos de linguagem grandes (LLM) para a ciência e a sociedade.
  • Ferramentas aprimoradas de oneAPI e IA ajudam os desenvolvedores a acelerar cargas de trabalho de HPC e IA e aprimorar a portabilidade de código em várias arquiteturas. 


HAMBURGO, Alemanha, 22 de maio de 2023 - Na Conferência ISC High-Performance, a Intel demonstrou desempenho de liderança para cargas de trabalho de computação de alto desempenho (HPC) e inteligência artificial (IA); compartilhou seu portfólio de futuros produtos de HPC e IA, unificados pelo modelo de programação aberta oneAPI; e anunciou um esforço internacional ambicioso para usar o supercomputador Aurora para desenvolver modelos de IA generativa para ciência e sociedade.

Mais: Conferência internacional de supercomputação 2023 (folha de orçamento)

"A Intel está comprometida em atender à comunidade de HPC e IA com produtos que ajudem os clientes e usuários finais a fazer descobertas inovadoras mais rapidamente", disse Jeff McVeigh, vice-presidente corporativo da Intel e gerente geral do Grupo de Supercomputação "Nosso portfólio de produtos abrangendo a série Intel® Xeon® CPU Max, a série Intel® Data Center GPU Max, os Processadores Escaláveis Intel® Xeon® de 4ª Geração e o Habana® Gaudi®2 estão superando a concorrência em uma variedade de cargas de trabalho, oferecendo vantagens de energia e custo total de propriedade, democratizando a IA e fornecendo escolha, abertura e flexibilidade."

Intel na ISC'23: Sessão de Jeff McVeigh sobre HPC Acelerado por IA (Replay)

Na Conferência de Alto Desempenho da ISC em Hamburgo, Alemanha, Jeff McVeigh, vice-presidente corporativo e gerente geral do Super Compute Group da Intel, fez uma apresentação sobre como a inteligência artificial (IA) está acelerando a computação de alto desempenho (HPC). Como parte de sua palestra em 22 de maio de 2023, McVeigh divulgou dados de desempenho dos produtos de HPC e IA da Intel, anunciou as últimas atualizações do Argonne National Laboratory e delineou o roteiro de HPC da Intel. (Crédito: Intel Corporation)

Demonstrações de eventos:

Aceleração de grandes modelos de linguagem com o Habana Gaudi2: Gravada na ISC'23 em Hamburgo, Alemanha, esta demonstração mostra o desempenho de inferência do Habana Gaudi2 em grandes modelos de linguagem. O Gaudi2 oferece desempenho de treinamento em escala quase linear de oito cartões até 64 cartões em um modelo de difusão estável multimodal. (Crédito: Intel Corporation) 

Desempenho portátil entre CPUs e GPUs: Gravada na ISC'23 em Hamburgo, Alemanha, esta demonstração mostra a implementação, o desempenho e a portabilidade de dois aplicativos científicos usando SYCL (DPEcho) e Fortran+OpenMP offloading (GRILLIX) para Intel XPUs. Ele compara o desempenho desses códigos com os processadores Intel Xeon de 3ª e 4ª geração, bem como o desempenho da versão GPU-Offloaded para a GPU Intel Max Series, concentrando-se na portabilidade do código SYCL para vários fornecedores. (Crédito: Intel Corporation)

Visualizando simulações de energia de fusão com rastreamento de ray de GPU: Gravada no ISC'23 em Hamburgo, Alemanha, esta demonstração mostra Intel OSPRay, um traçador de caminhos escrito usando SYCL e Intel Embree 4.0 rodando na GPU Max do Intel Data Center. Com a alta largura de banda de memória da Intel Data Center GPU Max Series, a Intel é capaz de ampliar os limites da visualização para pesquisadores e cientistas. Os dados fornecidos pela Autoridade de Energia Atômica do Reino Unido fornecem uma simulação de uma solução de energia de fusão que compensará as emissões de carbono. (Crédito: Intel Corporation)

Acelera as simulações de química quântica: Gravada na ISC'23 em Hamburgo, Alemanha, esta demonstração mostra o desempenho de liderança da CPU Intel Xeon Max versus a GPU NVIDIA A100 ao executar um código de simulação de dinâmica molecular. (Crédito: Intel Corporation)


 

Desempenho de hardware em escala

Na apresentação especial da Intel, McVeigh destacou os últimos resultados de desempenho competitivo em toda a amplitude de hardware e compartilhou um forte impulso com os clientes.
 

  • A série Intel® Data Center GPU Max supera o cartão Nvidia H100 PCIe em uma média de 30% em cargas de trabalho diversas1, enquanto o fornecedor independente de software Ansys mostra um aumento de velocidade de 50% para a GPU da série Max em relação ao H100 em aplicações de HPC aceleradas por IA. 2
  • A CPU Xeon Max Series, o único processador x86 com memória de alta largura de banda, apresenta uma melhoria de 65% em relação ao processador Genoa da AMD no benchmark de gradientes conjugados de alto desempenho (HPCG)1, usando menos energia. A alta largura de banda de memória tem sido apontada como uma das características mais desejadas para clientes de HPC. 3
  • Os processadores escaláveis Intel Xeon da 4ª Geração, os mais amplamente utilizados em HPC, oferecem uma aceleração média de 50% em relação ao Milan4 da AMD, e o cluster HPC da 4ª Geração da BP da 4ª Geração oferece um aumento de 8 vezes no desempenho em comparação com seus processadores de geração anterior com maior eficiência energética. 2
  • O acelerador de aprendizagem profunda Gaudi2 tem desempenho competitivo em treinamento e inferência de aprendizagem profunda, com desempenho até 2,4 vezes mais rápido do que o Nvidia A100. 1


Os clientes anunciaram recentemente novas instalações com os processadores Intel Xeon de 4ª geração e da série Max:
 

  • A Universidade de Kyoto está implementando os processadores Xeon de 4ª geração para Laurel 3 e Cinnamon 3, e os processadores da série Max para Camphor 3.
  • A Cineca implantou o Leonardo com processadores Intel Xeon de 4ª geração.
  • A Universidade de Rochester - Laboratório de Energética a Laser está implementando um cluster com processadores Xeon da Geração.
  • O Servicio Meteorológico Nacional da Argentina implantará um sistema com ambos os processadores e GPUs da série Max


Além disso, o Cambridge Open Zettascale Lab da Universidade de Cambridge implantou o primeiro laboratório de testes de GPU Max no Reino Unido e está obtendo resultados positivos iniciais em aplicações de dinâmica molecular e imagens biológicas. Além disso, o RIKEN anunciou um memorando de entendimento (MoU) com a Intel com o objetivo de acelerar a pesquisa e o desenvolvimento conjunto no campo das tecnologias avançadas de computação, como IA, HPC e computação quântica. Como parte do MoU, o RIKEN também trabalhará com a Intel Foundry Services para criar protótipos dessas novas soluções. Como parte do MoU, a RIKEN também se envolverá com a Intel Foundry Services para criar protótipos dessas novas soluções.

Processadores competitivos para cada Carga de Trabalho

As cargas de trabalho dinâmicas e emergentes de HPC e IA exigem um portfólio completo de soluções de hardware e software. McVeigh apresentou uma visão geral das ofertas de data center da Intel que oferecem muitas opções e soluções para a comunidade HPC, ajudando a democratizar a IA.

Em sua apresentação, McVeigh introduziu as CPUs de próxima geração da Intel para atender às demandas de largura de banda de memória alta. A Intel liderou o ecossistema no desenvolvimento de um novo tipo de DIMM - Multiplexer Combined Ranks (MCR) - para o Granite Rapids. O MCR alcança velocidades de 8.800 megatransfers por segundo com base no DDR5 e uma capacidade de largura de banda de memória superior a 1,5 terabytes/segundo (TB/s) em um sistema de dois soquetes. Esse aumento na largura de banda da memória é essencial para alimentar as contagens de núcleos em rápido crescimento das CPUs modernas e permitir eficiência e flexibilidade.

A Intel também divulgou um novo subsistema baseado em GPU x8 da série Max, otimizado para IA, da Supermicro, projetado para acelerar o treinamento de aprendizado profundo. Além do acesso via Intel® Developer Cloud beta5 no final deste ano, vários OEMs oferecerão soluções com gpUs max série x4 e subsistemas OAM x8 e placas PCIe, que estarão disponíveis no verão.

A próxima geração de GPUs da série Max da Intel, Falcon Shores, dará aos clientes a flexibilidade de implementar combinações de CPU e GPU discretas ao nível de sistema para as cargas de trabalho novas e em rápida mudança do futuro. O Falcon Shores é baseado em uma arquitetura modular baseada em blocos e irá:
 

  • Suportar tipos de dados de HPC e IA, desde FP64 até BF16 e FP8.
  • Possibilitar até 288GB de memória HBM3 com largura de banda total de até 9,8TB/s e I/O de alta velocidade drasticamente melhorada.
  • Empoderar o modelo de programação CXL.
  • Apresentar uma interface de programação unificada para GPUs por meio do oneAPI.

IA generativa para ciência

O Laboratório Nacional de Argonne, em colaboração com a Intel e a HPE, anunciou planos para criar uma série de modelos de IA generativa para a comunidade de pesquisa científica.

"O projeto visa aproveitar todo o potencial do supercomputador Aurora para produzir um recurso que possa ser usado para ciência downstream nos laboratórios do Departamento de Energia e em colaboração com outros", disse Rick Stevens, diretor associado do laboratório de Argonne.

Esses modelos de IA generativa para ciência serão treinados em texto geral, código, textos científicos e dados científicos estruturados de biologia, química, ciência dos materiais, física, medicina e outras fontes.  

Os modelos resultantes (com até 1 trilhão de parâmetros) serão usados em uma variedade de aplicações científicas, desde o projeto de moléculas e materiais até a síntese de conhecimento a partir de milhões de fontes para sugerir experimentos novos e interessantes em biologia de sistemas, química de polímeros, materiais de energia, ciência do clima e cosmologia. O modelo também será usado para acelerar a identificação de processos biológicos relacionados ao câncer e outras doenças, além de sugerir alvos para o design de medicamentos.

A Argonne está liderando uma colaboração internacional para avançar com o projeto, incluindo a Intel, HPE, laboratórios do Departamento de Energia, universidades nos Estados Unidos e internacionais, organizações sem fins lucrativos e parceiros internacionais, como a RIKEN.

Além disso, o Laboratório Nacional Intel e Argonne destacou o progresso da instalação, as especificações do sistema e os resultados de desempenho antecipados para Aurora:
 

  • A Intel concluiu a entrega física de mais de 10.000 blades para o supercomputador Aurora.
  • • O sistema completo do Aurora, construído usando supercomputadores HPE Cray EX, terá 63.744 GPUs e 21.248 CPUs, além de 1.024 nós de armazenamento DAOS. Ele também utilizará a rede Ethernet de alto desempenho HPE Slingshot. E ele utilizará a rede Ethernet de alto desempenho HPE Slingshot.
  • Resultados iniciais mostram um desempenho líder em cargas de trabalho reais de ciência e engenharia, com um desempenho até 2 vezes maior em comparação com as GPUs AMD MI250, uma melhoria de 20% em relação à H100 na aplicação quântica QMCPACK e uma escalabilidade quase linear de centenas de nós. Os primeiros resultados mostram desempenho líder em cargas de trabalho de ciência e engenharia do mundo real, com desempenho até 2x em relação às GPUs AMD MI250, melhoria de 20% em relação ao H100 na aplicação mecânica quântica QMCPACK e escalação quase linear de até centenas de nós. 2


Espera-se que o Aurora ofereça mais de 2 exaflops de desempenho máximo de computação de precisão dupla, quando for lançado este ano.

Computação acelerada aberta e produtiva por meio da oneAPI

Em todo o mundo, cerca de 90% de todos os desenvolvedores se beneficiam ou usam software desenvolvido para ou otimizado pela Intel. 6 Desde que o modelo de programação oneAPI foi lançado em 2020, os desenvolvedores demonstraram oneAPI em CPU, GPU, FPGA e silício de IA de vários provedores de hardware, abordando os desafios dos modelos de programação acelerada de um único fornecedor. As mais recentes ferramentas da Intel oneAPI oferecem melhorias de desempenho para aplicações de HPC com offload de GPU OpenMP, ampliam o suporte para OpenMP e Fortran, e aceleram a IA e o aprendizado profundo por meio de frameworks otimizados, como TensorFlow e PyTorch, e ferramentas de IA, possibilitando melhorias de desempenho em ordens de magnitude.

OneAPI facilita a programação de multiarquitetura para programadores por meio da implementação de SYCL da OneAPI, plug-ins oneAPI para processadores Nvidia e AMD desenvolvidos pela Codeplay, e o Intel® DPC++ Compatibility Tool (baseado na SYCLomatic de código aberto) que migra o código de CUDA para SYCL e C++ onde 90-95% do código geralmente migra automaticamenO oneAPI torna a programação multiarquitetura mais fácil para os programadores por meio da implementação SYCL do oneAPI, dos plug-ins oneAPI para processadores Nvidia e AMD desenvolvidos pela Codeplay, e da Ferramenta de Compatibilidade Intel® DPC++ (baseada no SYCLomatic de código aberto) que migra o código de CUDA para SYCL e C++, onde 90-95% do código é geralmente migrado automaticamente.e. 7 O código SYCL resultante apresenta desempenho comparável ao mesmo código em execução em sistemas nativos da Nvidia e AMD. Os dados mostram que o código SYCL para o aplicativo de astrofísica DPEcho em execução na GPU da série Max supera em 48% o mesmo código CUDA no Nvidia H100. 1

O ecossistema mais amplo também está adotando o SYCL. A Eviden, uma empresa da Atos, anunciou o CEPP one+ com a Intel, um serviço de modernização de código HPC/AI baseado no Centro de Excelência em Programação de Desempenho (CEPP) da Eviden. O CEPP one+ irá se concentrar na adoção do SYCL e do OpenMP, preparando a comunidade para um cenário de computação heterogênea, ao mesmo tempo, em que oferece liberdade de escolha em hardware por meio de padrões abertos.

Isenções de responsabilidade e configuração:

1 Visite a página da Conferência Internacional de Supercomputação (ISC'23) no intel.com/performanceindex para cargas de trabalho e configurações. Os resultados podem variar. 

2 A Intel não controla ou audita dados de terceiros. Você deve consultar outras fontes para avaliar a precisão. 

3 HyperionResearch HPC Market Update, novembro de 2022.

4 Intel® Xeon® 8480+ tem desempenho de HPC geomean 1,5x maior em 27 benchmarks e aplicações do que o AMD EPYC 7763. Os resultados podem variar.

5 O beta da Intel Developer Cloud está disponível atualmente para clientes pré-qualificados.

6  Segundo as estimativas da Intel.

7 As estimativas da Intel são de março de 2023. Com base em medições em um conjunto de benchmarks e amostras de 85 HPC, com exemplos como Rodinia, SHOC, PENNANT.  Os resultados podem variar.

O desempenho varia conforme o uso, a configuração e outros fatores. Os resultados de desempenho são baseados em testes realizados nas datas mostradas nas configurações e podem não refletir todas as atualizações disponíveis publicamente. Nenhum produto ou componente pode ser absolutamente seguro.

Os custos e resultados podem variar.

As tecnologias Intel podem exigir ativação de hardware, software ou de serviços. 

As declarações neste documento que se referem a planos ou expectativas futuras são declarações prospectivas. Essas declarações são baseadas nas expectativas atuais e envolvem muitos riscos e incertezas que podem causar resultados reais materialmente diferentes daqueles expressos ou implícitos em tais declarações. Para obter mais informações sobre os fatores que podem causar resultados reais materialmente diferentes, consulte nossa mais recente divulgação de resultados e arquivos SEC em www.intc.com.