redação intel

Otimizações intel oneDNN AI habilitadas como padrão no TensorFlow

Intel e Google se unem para habilitar a biblioteca oneDNN como a otimização padrão da CPU backend para TensorFlow 2.9.

Quais as novas: Na versão mais recente do TensorFlow 2.9, as melhorias de desempenho fornecidas pela Biblioteca de Rede Neural Profunda (oneDNN) da Intel® são ligadas por padrão. Isso se aplica a todos os pacotes Linux x86 e para CPUs com recursos de hardware focados em rede neural (como AVX512_VNNI, AVX512_BF16 e extensões de vetor e matriz AMX que maximizam o desempenho da IA através do uso eficiente de recursos computacionais, melhor utilização de cache e formatação numérica eficiente) encontradas em processadores Intel® Xeon® escaláveis de 2ª geração e CPUs mais novas. Essas otimizações habilitadas pela oneDNN aceleram operações de uso intensivo de desempenho, como convolução, multiplicação de matriz e normalização em lote, com melhorias de desempenho em até 3 vezes em comparação com versões sem aceleração oneDNN.

"Graças aos anos de estreita colaboração de engenharia entre Intel e Google, as otimizações na biblioteca oneDNN agora são padrão para pacotes de CPU x86 no TensorFlow. Isso traz uma aceleração significativa de desempenho para o trabalho de milhões de desenvolvedores tensorFlow sem a necessidade de que eles alterem qualquer um de seus códigos. Este é um passo crítico para fornecer inferência e treinamento de IA mais rápidos e ajudará a impulsionar a IA em todos os lugares."

–Wei Li, vice-presidente da Intel e gerente geral de IA e Analytics

Por que é importante: as melhorias de desempenho da OneDNN que se tornam disponíveis por padrão na versão oficial do TensorFlow 2.9 permitirão que milhões de desenvolvedores que já usam o TensorFlow se beneficiem perfeitamente da aceleração do software Intel, levando a ganhos de produtividade, tempo mais rápido para treinar e utilização eficiente da computação. Aplicativos adicionais baseados em TensorFlow, incluindo TensorFlow Extended, TensorFlow Hub e TensorFlow Serving também têm as otimizações oneDNN. TensorFlow incluiu suporte experimental para oneDNN desde TensorFlow 2.5.

oneDNN é uma biblioteca de desempenho multiplataforma de código aberto de blocos básicos de construção de deep learning destinados a desenvolvedores de aplicativos e frameworks de aprendizagem profunda. Os aplicativos e frameworks habilitados por ele podem então ser usados por profissionais de deep learning. o oneDNN faz parte do oneAPI, um modelo de programação aberto, baseado em padrões e unificado para uso em cpus, bem como GPUs e outros aceleradores de IA.

Embora haja uma ênfase em aceleradores de IA como GPUs para aprendizado de máquina e, em particular, aprendizado profundo, as CPUs continuam a desempenhar um grande papel em todas as etapas do fluxo de trabalho de IA. O extenso trabalho de habilitação de software da Intel faz com que as estruturas de IA, como a plataforma TensorFlow, e uma ampla gama de aplicativos de IA funcionem mais rápido no hardware Intel que é onipresente na maioria dos dispositivos pessoais, estações de trabalho e data centers. O rico portfólio de bibliotecas, frameworks e ferramentas otimizadas da Intel atende às necessidades de desenvolvimento e implantação de IA de ponta a ponta, ao mesmo tempo em que é construído com base no oneAPI.

O que isso ajuda a habilitar: As acelerações movidas a OneDNN para tensorFlow proporcionam ganhos notáveis de desempenho que beneficiam aplicativos que abrangem processamento de linguagem natural, reconhecimento de imagens e objetos, veículos autônomos, detecção de fraudes, diagnóstico e tratamento médicos e outros.

Os aplicativos de deep learning e machine learning explodiram em número devido ao aumento do poder de processamento, disponibilidade de dados e algoritmos avançados. TensorFlow tem sido uma das plataformas mais populares do mundo para o desenvolvimento de aplicativos de IA com mais de 100 milhões de downloads. O TensorFlow otimizado pela Intel está disponível tanto como um componente autônomo quanto através do Intel® oneAPI AI Analytics Toolkit, e já está sendo usado em uma ampla gama de aplicativos do setor, incluindo o projeto Google Health, filmagens de animação no Laika Studios, tradução de idiomas na Lilt, processamento de linguagem natural no IBM Watson e muitos outros.

Mais contexto: Ferramentas de software intel AI | Intel AI |  tensorFlow |  oneAPIoneDNN

A pequena impressão:

Avisos e isenções de responsabilidade

O desempenho varia de acordo com o uso, configuração e outros fatores. Saiba mais em www.intel.com/PerformanceIndex. Os resultados podem variar.

Os resultados de desempenho são baseados em testes realizados nas datas especificadas nas configurações e podem não incluir todas as atualizações disponíveis publicamente.

Nenhum produto ou componente pode ser totalmente seguro.

Os custos e resultados podem variar.

As tecnologias Intel podem exigir ativação de hardware, software ou de serviços.