ID do artigo: 000088387 Tipo de conteúdo: Compatibilidade Última revisão: 20/05/2022

Por que os modelos Caffe podem ser usados diretamente com OpenVINO™ API do mecanismo de inferência de kit de ferramentas?

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Resumo

Estruturas suportadas para OpenVINO™ API do mecanismo de inferência de kit de ferramentas

Descrição
  • Modelo caffe inferenciado diretamente no Stick de computação neural Intel® 2 (Intel® NCS2).
  • Não foi possível determinar por que o modelo Caffe pode ser usado diretamente com a API do mecanismo de inferência de OpenVINO™ toolkit sem converter em Representação Intermediária (IR).
Resolução

Apenas frameworks caffe limitados podem ser usados diretamente com a API OpenVINO™ mecanismo de inferência de kit de ferramentas.

Atualmente, as estruturas suportadas pela API OpenVINO™ toolkit inference Engine são:

  • Representação intermediária (IR)
  • ONNX

Produtos relacionados

Este artigo aplica-se a 2 produtos

O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.