Ir para o conteúdo principal
Base de conhecimentos do Suporte

Por que os modelos Caffe podem ser usados diretamente com OpenVINO™ API do mecanismo de inferência de kit de ferramentas?

Tipo de conteúdo: Compatibilidade   |   ID do artigo: 000088387   |   Última revisão: 20/05/2022

Descrição

  • Modelo caffe inferenciado diretamente no Stick de computação neural Intel® 2 (Intel® NCS2).
  • Não foi possível determinar por que o modelo Caffe pode ser usado diretamente com a API do mecanismo de inferência de OpenVINO™ toolkit sem converter em Representação Intermediária (IR).

Resolução

Apenas frameworks caffe limitados podem ser usados diretamente com a API OpenVINO™ mecanismo de inferência de kit de ferramentas.

Atualmente, as estruturas suportadas pela API OpenVINO™ toolkit inference Engine são:

  • Representação intermediária (IR)
  • ONNX

Produtos relacionados

Este artigo aplica-se a 2 produtos.

Produtos descontinuados

Intel® DevCloud for the Edge

Avisos legais

O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.