Quatro aprendizados do Webinar de investidores da Intel

Os líderes da Intel se concentram na unidade de negócios de data center e inteligência artificial da empresa com roteiro e atualizações de progresso.

Notícias

  • 29 de março de 2023

  • Entre em contato com o PR da Intel

  • Siga a redação da Intel nas redes sociais:

    Logotipo do Twitter
    Ícone do YouTube

author-image

Por

Baixe todas as imagens (ZIP, 75 MB)

Todos os olhos , especialmente os olhos dos investidores, estão no negócio de data center da Intel atualmente.

Sandra Rivera, Greg Lavender e Lisa Spelman, da Intel, hospedaram um webinar focado na unidade de negócios de Data Center e Inteligência Artificial da empresa. Eles ofereceram uma grande atualização sobre as mais recentes previsões de mercado, planos de hardware e a forma como a Intel está capacitando desenvolvedores com software.

Executivos divulgaram atualizações sobre os negócios de data center da Intel para investidores. Isto incluiu divulgações sobre as futuras gerações de chips Intel® Xeon®, atualizações de progresso sobre os processadores escaláveis Intel® Xeon® de quarta geração (codinome Sapphire Rapids) e demonstrações de hardware Intel enfrentando a concorrência, cargas pesadas de trabalho de IA e muito mais.

Mais: Assumindo os desafios de computação e sustentabilidade da IA generativa

Chamada de rolo de roteiro Xeon

Entre Sapphire Rapids, Emerald Rapids, Sierra Forest e Granite Rapids, há muita coisa acontecendo no negócio de CPU para servidor. Aqui estão suas atualizações do roteiro Xeon por ordem de aparência:

Hoje: uma atualização da 4ª geração Intel Xeon escalável (Sapphire Rapids)

Todos os principais fabricantes de equipamentos originais (OEMs) e fabricantes de design original (ODMs) estão enviando sistemas Xeon da 4ª Geração, e os 10 principais provedores globais de serviços de nuvem estão trabalhando na implantação de serviços no Xeon da 4ª Geração. É a CPU de data center de mais alta qualidade que a Intel já forneceu, e a rampa continua agressivamente. Lisa Spelman, vice-presidente corporativa e gerente geral de produtos Intel Xeon, ofereceu uma demonstração de uma Xeon da 4ª Geração de 48 núcleos, com uma CPU AMD Epyc de 48 núcleos de 48 núcleos. O resultado? A Xeon da 4ª Geração da Intel com Intel® Advanced Matrix Extensions (Intel® AMX) oferece um ganho médio de desempenho de 4 vezes mais tecnologia da concorrência em um amplo conjunto de cargas de trabalho de aprendizagem profunda. 2

4º trimestre de 2023: 5ª geração Intel Xeon escalável (codinome Emerald Rapids)

Emerald Rapids é o próximo produto do Núcleo de Desempenho (P-core) da Intel. A partir de hoje, ela é oficialmente conhecida como 5ª geração Intel® Xeon® escalável. Como ela lança seu codinome e faz marca formal em preparação para seu lançamento, a CPU já está amostrando para os clientes. A validação do volume está em andamento e Sandra Rivera, vice-presidente executiva e gerente geral do Data Center e do Grupo de IA, disse aos investidores que a qualidade do silício de fábrica é muito alta.

Primeiro semestre de 2024: Sierra Forest

Sierra Forest, o primeiro processador efficiency-core (E-core), está em andamento para o primeiro semestre de 2024. Hoje, a Intel anunciou que Sierra Forest contará com 144 núcleos por soquete. A primeira CPU baseada no próximo processo Intel 3, Sierra Forest a energia foi ativada no início deste trimestre com várias OSes inicializando em tempo recorde (menos de um dia). Está programado com as primeiras amostras já fora da porta. Uma Sierra Forest durante a apresentação de hoje incluiu uma bela foto do gerenciador de tarefas mostrando todos os 144 núcleos aparecendo ao longo do processamento da carga de trabalho de demonstração.

Uma sequência rápida: Granite Rapids

Granite Rapids chegará quente nos saltos da Sierra Forest em 2024. Embora uma data específica de lançamento ainda não tenha sido divulgada, seu time-to-market será beneficiado pelo compartilhamento de uma plataforma com a Sierra Forest. O IP compartilhado e a tecnologia minimizam o tempo de desenvolvimento e design. Granite Rapids está atingindo todos os principais marcos e a primeira etapa está fora da fábrica e saudável. Também é uma amostragem para clientes com feedback positivo. Spelman recebeu um primeiro gosto de Granite Rapids inovação durante uma demonstração.

"Estamos construindo a interface de memória mais rápida do mundo para Granite Rapids", disse Spelman enquanto ela disparava um prompt de comando para mostrar sua configuração de memória. "A Intel inventou e liderou o ecossistema no desenvolvimento de um novo tipo de DIMM chamado Multiplexer Combined Rank (MCR) que permite atingir velocidades de 8.800 megatransfers por segundo, com base no DDR5."

A inovação MCR DIMM alcança um aumento de largura de banda de 80% em comparação com a tecnologia de memória de servidor atual, e Lisa foi capaz de demonstrar a estabilidade Granite Rapids enquanto satura um subsistema de memória saudável com leitura/gravação.

Mais para o futuro

Falando publicamente pela primeira vez, a Intel continuará a executar em seu roteiro E-core com o follow-on para Sierra Forest: Clearwater Forest. Chegando ao mercado em 2025, a Clearwater Forest será fabricada na Intel 18A, o nó em que a Intel planeja alcançar a liderança de processos – é a culminação da estratégia de cinco nós em quatro anos da empresa.

Bits de bônus

  • O acelerador de IA Habana® Gaudi®3 tem fitas adesivas. Os detalhes de desempenho ainda não foram compartilhados, mas o Habana® Gaudi®2 está no ambiente e oferece uma vantagem de 1,8x em rendimento por watt sobre um servidor A100 comparável ao executar uma popular carga de trabalho de visão do computador. 1
  • Há 15 novos produtos FPGA programados para passar pelo processo de qualificação de lançamento de produção (PRQ) este ano, que é mais novas apresentações de produtos do que nunca nos negócios FPGA da Intel.

Workshop da Intel para investidores: Centro de dados e IA (Replay)

Em 29 de março de 2023, Sandra Rivera, Greg Lavender e Lisa Spelman, da Intel, organizaram um workshop web focado no Centro de Dados e na unidade de negócios de Inteligência Artificial da empresa. Executivos ofereceram aos investidores, atualizações sobre os negócios do centro de dados da Intel. Isto incluiu divulgações sobre as futuras gerações de chips Intel Xeon, atualizações de progresso sobre processadores escaláveis Intel Xeon de quarta geração (codinome Sapphire Rapids) e demonstrações de hardware Intel abordando a concorrência, cargas pesadas de trabalho de IA e muito mais. (Crédito: Intel Corporation)

Olhando além da CPU por US$ 110 bilhões

Este roteiro embalado está em vias de ser entregue em um mercado ainda maior disponível (TAM) do que o considerado anteriormente. O TAM de US$ 110 bilhões de cinco anos citado por Rivera para o negócio de silício do data center é aproximadamente o dobro da oportunidade destacada durante o Dia do Investidor Intel no ano passado. O motivo? Um cenário de data center em mudança que vai além da CPU.

"Quando falamos sobre demanda de computação, muitas vezes olhamos para o TAM pelas lentes das unidades de CPU", explica Rivera. "No entanto, a contagem de soquetes não reflete totalmente como as inovações de silício oferecem valor ao mercado. Hoje, as inovações são fornecidas de várias maneiras, incluindo maior densidade do núcleo da CPU, o uso de aceleradores integrados ao silício e o uso de aceleradores dedicados."

Com base no acima, Rivera citou algumas razões específicas para o aumento da TAM: com a integração de computação aceleradora e ofertas avançadas de GPU em seus negócios de data center, a Intel está melhor posicionadas para atender a uma faixa mais ampla de clientes. Além disso, o desempenho da Xeon em cargas de trabalho de alto perfil (como IA, análise, segurança, redes e HPC) está impulsionando a demanda por computação convencional, bem como aceleradores dedicados adaptados para a tarefa em mãos.

IA está em todos os lugares, é para todos e está sendo executado na Intel

Atualizações de silício à parte, a IA foi um tema persistente no webinar atual.

A Intel já é fundamental no hardware de IA, desde preparação e gerenciamento de dados até treinamento e inferência de pequena e média escala no Xeon, além de treinamento e inferência de modelos cada vez maiores usando GPUs e aceleradores Intel®.

Hoje, Rivera definiu o compromisso da Intel com a verdadeira democratização da IA da nuvem para a rede e para a borda, permitindo acesso mais amplo a soluções e implantações mais econômicas por meio de uma abordagem de ecossistema aberto.

"Os clientes querem portabilidade em suas cargas de trabalho de IA. Eles querem construir uma vez e implantar em qualquer lugar", diz Rivera. "À medida que continuamos a oferecer arquiteturas heterogêneas para cargas de trabalho de IA, implementá-las em escala exigirá software que facilmente os desenvolvedores programem e um ecossistema aberto e seguro vibrante prospere."

Greg Lavender, chefe de tecnologia e líder do Grupo de Software e Tecnologia da Intel, estava à disposição para falar sobre o software avançado da Intel, bem como seu investimento em uma abordagem holística, de ponta a ponta em nível de sistemas para software de IA - incluindo o trabalho para padronizar as linguagens de programação para a portabilidade que Rivera mencionou.

"O desejo por uma alternativa aberta e multiarquitetura de múltiplos fornecedores à (Nvidia) CUDA não está se esgotando", disse Lavender. "Acreditamos que o setor se beneficiará de uma linguagem de programação padronizada em que todos podem contribuir, colaborar, não estão bloqueados em um determinado fornecedor e podem evoluir organicamente com base em seus membros e requisitos públicos."

A Intel fez contribuições para a SYCL, um modelo de programação aberto baseado em C++, e adquiriu o Software codeplay (líder na linguagem e comunidade SYCL). A SYCL agora está incluída no oneAPI para que os clientes possa programar e compilar entre CPUs, GPUs e aceleradores de vários fornecedores. O trabalho adicional em otimizações de software upstream inclui otimizações para PyTorch 2.0 e TensorFlow 2.9, bem como uma colaboração com Hugging Face para treinar, ajustar e prever com a ajuda de Intel Xeon e Gaudi 2.

Potencializando o progresso na IA generativa

A filosofia aberta da Intel se estende ao campo da IA geradora, onde ferramentas poderosas como ChatGPT e modelo text-to-image DALL· O E 2 está aproveitando algoritmos de IA e grandes conjuntos de dados para produzir novos conteúdos baseados em prompts humanos cada vez mais complexos.

A IA generativa está evoluindo em velocidade de dobra (parece que há manchetes quase diárias sobre avanços), e a Intel está trabalhando ativamente para suportar um ecossistema de IA gerando aberto, ao mesmo tempo em que aborda as crescentes demandas de desempenho.

No início desta semana, Hugging Face, um dos principais jogadores no desenvolvimento de aplicações de aprendizagem de máquina, anunciou que havia habilitado o modelo BLOOMZ de 176 bilhões de parâmetros no Gaudi 2 da Habana. O modelo BLOOM é um modelo de IA de código aberto de grande porte análogo ao modelo GPT-3 do parâmetro 175B empregado pelo ChatGPT. A empresa também confirmou que está executando difusão estável de texto para imagem de aprendizagem profunda no Xeon da 4ª Geração com um Intel AMX integrado para aceleração de carga de trabalho de IA (Difusão estável é uma alternativa de acesso aberto ao DALL· E).

Além dos esforços da Intel para fortalecer um ecossistema aberto e ético, a Xeon também está presente e contabilmente em outros lugares no cenário de IA geradora. Rivera lembrou hoje aos investidores que a Nvidia está usando a Xeon da 4ª Geração como nó de cabeça para funcionar ao lado de suas GPUs H100 para impulsionar as máquinas virtuais acelerando os modelos de IA generative no Microsoft Azure, incluindo o ChatGPT.

Nota do editor:

  • Esta história foi atualizada em 30 de março de 2023, com detalhes sobre o kit de ferramentas de código aberto SYCLomatic.
  • Este artigo foi editado em 5 de abril de 2023 para remover uma foto que identificava incorretamente o nome de código do processador Intel Xeon Sierra Forest.

1 Relatório de validação de Supermicro L12 de Gaudi2 HL-225H SYS-820GH-THR2, 20 de outubro de 2022.

2 Processadores escaláveis Intel® Xeon® 2ª geração — 1 | Índice de desempenho