Ir para o conteúdo principal
Base de conhecimentos do Suporte

É possível implementar o OpenVINO™ de inferência de tempo de execução com representação intermediária (IR)?

Tipo de conteúdo: Documentação e informações do produto   |   ID do artigo: 000092935   |   Última revisão: 28/02/2023

Descrição

  1. Modelo TensorFlow* convertido em IR.
  2. Não foi possível determinar etapas para implementar OpenVINO™ pipeline de inferência de tempo de execução com IR.

Resolução

  1. Create* OpenVINO™ Runtime Core
    import openvino.runtime as ov
    core = ov.Core()

     
  2. Compile o modelo
    compiled_model = core.compile_model("model.xml", "AUTO")
     
  3. Crie uma solicitação de inferência
    infer_request = compiled_model.create_infer_request()
     
  4. Definir Entradas
    # Create tensor from external memory
    input_tensor = ov.Tensor(array=memory, shared_memory=True)
    # Set input tensor for model with one input
    infer_request.set_input_tensor(input_tensor)

     
  5. Começar Inferência
    infer_request.start_async()
    infer_request.wait()

     
  6. Processar os resultados de inferência
    # Get output tensor for model with one output
    output = infer_request.get_output_tensor()
    output_buffer = output.data
    # output_buffer[] - accessing output tensor data

Produtos relacionados

Este artigo aplica-se a 3 produtos.
Software do processador Intel® Xeon Phi™ OpenVINO™ toolkit Bibliotecas de desempenho

Avisos legais

O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.