Não foi possível encontrar informações sobre as diferenças entre a execução de OpenVINO™ com o formato do modelo IR e diretamente do formato de origem (ONNX*, Pytorch*).
A execução de inferência OpenVINO™ com o formato do modelo IR oferece os melhores resultados possíveis, pois o modelo já está convertido. Este formato oferece menor latência e opções de primeira inferência para otimizações de modelo. Este formato é o mais otimizado para OpenVINO™ inferência.
Executando a inferência diretamente do formato de origem, a conversão do modelo acontece automaticamente e é tratada pelo OpenVINO™. Este método é conveniente, mas pode não dar o melhor desempenho ou estabilidade. Ele também não fornece opções de otimização.
Consulte a página De preparação do modelo para obter mais informações sobre os formatos de modelo OpenVINO™ suportados.