Especificação de hardware entre indústrias para acelerar o desenvolvimento de software de IA

Novas especificações equilibram as implementações existentes de hardware e software para acelerar a adoção e melhorar a produtividade dos desenvolvedores.

Arm, Intel e Nvidia criaram em conjunto um artigo descrevendo uma especificação de ponto flutuante de 8 bits (FP8) e suas duas variantes E5M2 e E4M3 para fornecer um formato intercambiável comum que funcione tanto para treinamento de inteligência artificial (IA) quanto para inferência. Esse alinhamento de especificações entre indústrias permitirá que os modelos de IA operem e funcionem consistentemente em plataformas de hardware, acelerando o desenvolvimento de software de IA.

Os requisitos computacionais para a IA têm crescido a uma taxa exponencial. Novas inovações são necessárias em hardware e software para fornecer throughput computacional necessário para avançar a IA.

Uma das áreas promissoras da pesquisa para lidar com essa crescente lacuna computacional é reduzir os requisitos numéricos de precisão para o aprendizado profundo para melhorar a memória e a eficiência computacional. Métodos de precisão reduzida exploram as propriedades inerentes resistentes ao ruído de redes neurais profundas para melhorar a eficiência da computação.

A Intel planeja apoiar essa especificação de formato em seu roteiro de produto de IA para CPUs, GPUs e outros aceleradores de IA, incluindo aceleradores de aprendizagem profunda Habana® Gaudi®.

O FP8 minimiza os desvios dos formatos de ponto flutuante IEEE 754 existentes com um bom equilíbrio entre hardware e software para alavancar implementações existentes, acelerar a adoção e melhorar a produtividade do desenvolvedor.

O princípio norteador desta proposta de formato da Arm, Intel e Nvidia é aproveitar convenções, conceitos e algoritmos construídos na padronização do IEEE. Isso permite a maior latitude para futura inovação em IA, ao mesmo tempo em que aderiu às convenções atuais do setor.