Liderando em IA: Uma abordagem holística que é exclusivamente Intel

Poucas empresas estão mais bem equipadas que a Intel para conquistar a era de produção de inteligência artificial.

Por Sandra Rivera
Vice-Presidente Executivo e Gerente Geral do Grupo de Datacenter e IA

Em sua essência, a inteligência artificial (IA) é a capacidade das máquinas de reconhecer padrões e fazer previsões precisas com base neles. Os modelos de IA continuam a se tornar mais sofisticados e complexos, e cada vez mais requerem mais computação, memória, banda larga e potencia.

A IA é a carga de trabalho computacional que mais cresce e uma das quatro superpotências que a Intel acredita que terá um impacto transformador no mundo. Embora nascido no data center, acredito que o futuro da IA está na natureza. A era de produção de IA no cliente e na borda está finalmente aqui, e para que a IA se prolifere de nuvem à borda, a comunidade precisa de uma abordagem mais aberta e holística para acelerar e simplificar todo o canalização de dados, modelagem e implantação. Nossa estratégia é repetir o que fizemos em outras grandes transições tecnológicas ao longo de nossa história: abrir para mais clientes, acelerar a democratização da IA e acelerar a adoção mais ampla.

Mais: Semicondutores Correm o Mundo (Pat Gelsinger Editorial) | Vantagem de Software da Intel, Decodificado (Greg Lavender Editorial) | Definindo e Liderando a Borda (Nick McKeown Editorial) | Intel Investor Day 2022 (Kit de Imprensa) | Baixe uma versão em PDF deste editorial

Poucas empresas estão mais bem equipadas para levar o mundo para a próxima era da IA: Aproveitar nosso amplo ecossistema, aproveitar software aberto e, principalmente, fornecer uma variedade de arquiteturas (de CPUs e GPUs a ASICs e outros) para atender ao grande número de casos de uso de IA nos permitirá moldar o mercado e pavimentar o caminho para a IA aberta.

Uma matriz de arquiteturas infundidas com IA

Quando se trata de IA, muitos pulam para o treinamento de aprendizagem profunda e desempenho da GPU. As GPUs recebem muita atenção porque o treinamento tende a ser massivamente paralelo. Mas isso é apenas uma parte da paisagem da IA. Uma grande parte das soluções práticas de IA envolve uma mistura de algoritmos clássicos de aprendizagem automática e modelos de aprendizagem profunda de pequena a média complexidade que estão dentro das capacidades de projetos modernos de CPU, como Xeon.

Baixe a imagem completa

Hoje em dia, a canalização de fluxo de dados de IA é executada principalmente no Xeon, e estamos fazendo o Xeon funcionar ainda mais rápido com aceleração incorporada e software otimizado. Com a Sapphire Rapids, estamos buscando entregar até 30 vezes o ganho total de desempenho de IA em relação à geração anterior, e estamos tornando o Xeon ainda mais competitivo, trazendo mais cargas de trabalho de IA a Xeon para reduzir a necessidade de aceleradores discretos. Para alguns produtos Intel, como Xeon, recursos de IA e otimizações não são um conceito novo, e planejamos expandir essa abordagem, construindo IA em todos os produtos que enviamos, seja em data center, cliente, borda ou gráficos.

Para o treinamento de aprendizagem profunda que realmente tem melhor desempenho em GPUs, queremos que os clientes tenham a liberdade de escolher a melhor computação para seus trabalhos de IA. As GPUs de hoje são fechadas e proprietárias, mas temos um processador de IA específico para domínio em Habana Gaudi, e uma GPU focada em HPC em Ponte Vecchio que será baseada em padrões de indústria aberta. Estamos satisfeitos com o progresso da Gaudi, com o anúncio de disponibilidade geral pela Amazon Web Services (AWS) no quarto trimestre de 2021 que as instâncias DL1 baseadas em Habana Gaudi têm um desempenho até 40% melhor do que as instâncias baseadas em GPU existentes no desempenho dos preços, e com testemunhos de experiência gaudi precoces.

Aproveitando um ecossistema estabelecido e capturando mais clientes

Modelos, algoritmos e requisitos específicos mudam dependendo do caso de uso e da indústria. Por exemplo, uma empresa de veículos autônomos precisa resolver problemas que abrangem a percepção (usando detecção, localização e classificação de objetos), mapeamento de alta definição e planejamento de rotas com ações que precisam se adaptar a um ambiente dinâmico. Por outro lado, um chatbot para um aplicativo de suporte técnico precisa entender o jargão técnico da empresa e da indústria em particular para responder a perguntas de forma relevante. As necessidades de hardware e software de IA também variam de acordo com clientes, segmento, carga de trabalho e pontos de design. Dispositivo, incorporado e cliente de IA requerem sistemas de inferência de baixa latência em drivers térmicos e de energia restrita, e muitos, mas não todos, requerem assistência com ferramentas de baixo código ou sem código. Há também uma demanda crescente de que a IA desenvolvida na nuvem seja consciente da borda, para que as soluções desenvolvidas na nuvem possam ser implantadas na borda (ou vice-versa).

Todos esses fatores estão impulsionando a inovação em todo o quadro, do data center à rede e até a borda, e influenciando a arquitetura de hardware no nível do sistema, incluindo alta largura de banda e memória de alta capacidade, interconexões rápidas e software inteligente.

Baixe a imagem completa

O maior mercado de crescimento dentro do pipeline de fluxo de trabalho de IA de ponta a ponta está dentro da implantação do modelo e da fase de inferência de IA. Hoje, mais de 70% da inferência de IA é executada em Xeon, e um dos casos de uso de inferência de IA que mais cresce é a borda inteligente, onde Xeon estabeleceu uma base forte.

Passei os últimos oito meses me envolvendo com os principais clientes e aprendendo mais sobre suas necessidades e cargas de trabalho. Essas conversas nos deram uma visão do que alguns dos clientes mais influentes (como provedores de serviços em nuvem) precisam e nos mostraram como parcerias estratégicas podem ajudar a informar as principais áreas do nosso portfólio. Há dezenas de milhares de instâncias de nuvem em execução na Intel hoje, e está crescendo mais rápido do que qualquer outra arquitetura. Há centenas de bilhões de linhas de código escritas em x86 e centenas de milhões de Xeons instalados em toda a indústria. A Intel está posicionada exclusivamente para impulsionar a indústria horizontalmente com padrões do setor e verticalmente em segmentos como automação e saúde, onde as necessidades são mais especializadas.

Uma pilha de software aberto para desenvolvedores de IA

Percebemos que o hardware é apenas uma parte da solução, e estamos tomando uma mentalidade de primeiro software com nossa estratégia de IA. O software inclui primeiro componentes seguros de software de IA que permitem aos usuários aproveitar os recursos exclusivos de software e segurança da Xeon, como a computação confidencial via Intel® Software Guard Extension (Intel® SGX), que protege dados e softwares críticos enquanto ele está em uso. O Intel SGX é o primeiro e mais implantado ambiente de execução confiável baseado em hardware do setor para o data center, e nosso roteiro Xeon inclui tecnologias de computação mais confidenciais que estenderão nossa posição de liderança.

Passamos anos otimizando as estruturas e bibliotecas de código aberto mais populares para nossas CPUs, e temos o mais amplo portfólio de aceleradores específicos de domínio que são construídos em um padrão aberto para tornar o código mais fácil de portar e evitar o lock-in — e ainda temos mais a fazer para aumentar nossa posição e seguir em frente. Queremos habilitar a IA aberta que abrange desde nuvem e data center até cliente, borda e além.

Embora permitir otimizações intel em frameworks de IA por padrão é fundamental para impulsionar a ampla adoção de silício, precisamos atender às necessidades de todos os tipos de desenvolvedores de IA. Isso inclui desenvolvedores de estruturas trabalhando na parte inferior da pilha de software para especialistas em assuntos de baixo código ou sem código trabalhando mais alto na pilha, e todos os elementos de engenharia e operacionais de implantação, execução, treinamento e manutenção de modelos de IA (MLOps). Embora seus papéis sejam muito diferentes, cada etapa do fluxo de trabalho de IA compartilha desejos comuns: passar do conceito para a escala do mundo real rapidamente, com o menor custo e risco. Isso significa escolha e soluções abertas baseadas em estruturas comuns que são fáceis de implantar e manter.

Construímos o BigDL, que suporta aprendizado de máquina em larga escala na infraestrutura de big data existente, e o OpenVino™, que acelera e simplifica a implantação de inferência para muitos alvos de hardware diferentes com centenas de modelos pré-treinados. Sei que com padrões e APIs consistentes, blocos de construção compostáveis/otimizados para desenvolvedores que trabalham nos níveis mais baixos da pilha de IA, e ferramentas e kits otimizados e produzidos para desenvolvedores de baixo código, os desenvolvedores de IA prosperarão com a Intel. Nossos investimentos contínuos em aceleradores de IA e segurança nos permitirão tornar esses elementos críticos da computação espalhados por todos os nossos clientes, segmentos de mercado e produtos.

IA onipresente alimentada pela Intel

A inteligência artificial já está transformando indústrias, e tem o potencial de melhorar a vida de cada pessoa na Terra, mas apenas se ela puder ser implantada com mais facilidade e escala. Reduzir a barreira à entrada para IA requer a coleta correta de tecnologias infundidas com IA. Nossa abordagem é uma fórmula vencedora que acelerará a próxima era das inovações em IA: Ao ajudar a definir o ambiente do desenvolvedor através de nossos esforços de código aberto, seremos capazes de desenvolver e influenciar soluções de clientes que impactam indústrias inteiras. Prevemos que a lógica silicon TAM de IA da Intel seja superior a US$ 40 bilhões até 2026. Estamos lidando com essa oportunidade com uma posição de força, e estou animado pelo que o futuro reserva.

Sandra L. Rivera é vice-presidente executiva e gerente geral do Datacenter e AI Group na Intel Corporation.

As tecnologias Intel® podem exigir ativação de hardware, software específico ou de serviços. Nenhum produto ou recurso pode ser absolutamente seguro. Os custos e resultados podem variar. O desempenho do produto varia de acordo com o uso, configuração e outros fatores. Saiba mais em www.Intel.com/PerformanceIndex. O desempenho futuro do produto e outras métricas são projeções e são inerentemente incertos.

Declarações com foco no futuro

As declarações neste documento que se referem a planos ou expectativas futuras são declarações prospectivas. Declarações que se referem ou se baseiam em estimativas, previsões, projeções, eventos ou suposições incertas, incluindo declarações relacionadas a produtos e tecnologia futuros e a disponibilidade e benefícios de tais produtos e tecnologia, oportunidade de mercado e tendências antecipadas em nossos negócios ou mercados relevantes para eles, também identificam declarações prospectivas. Essas declarações são baseadas nas expectativas atuais e envolvem muitos riscos e incertezas que podem causar resultados reais materialmente diferentes daqueles expressos ou implícitos em tais declarações. Para obter mais informações sobre os fatores que podem fazer com que os resultados reais diferam materialmente, consulte nossa liberação de resultados mais recente e nossos depósitos da SEC em www.intc.com. A Intel não se compromete, e se isenta expressamente de qualquer dever, de atualizar qualquer declaração feita neste documento, exceto na medida em que a divulgação possa ser exigida por lei.