Ir para o conteúdo principal
Base de conhecimentos do Suporte

Por que escolher o modelo FP16 na compressão de peso usando o framework ideal de compressão de rede neural (NNCF)?

Tipo de conteúdo: Solução de problemas   |   ID do artigo: 000098174   |   Última revisão: 21/03/2024

Descrição

Não foi possível determinar o motivo de escolher o modelo FP16 na Compressão de peso usando Intel / NNCF otimizadas.

Resolução

O FP16 de meia precisão, que metade do tamanho do modelo de precisão FP32, pode ter um resultado de inferência quase idêntico enquanto usa metade dos recursos da GPU.

Produtos relacionados

Este artigo aplica-se a 3 produtos.
Software do processador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempenho

Avisos legais

O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.