Não foi possível determinar etapas para implementar OpenVINO™ pipeline de inferência de tempo de execução com IR.
Resolução
Create* OpenVINO™ Runtime Core import openvino.runtime as ov core = ov.Core()
Compile o modelo compiled_model = core.compile_model("model.xml", "AUTO")
Crie uma solicitação de inferência infer_request = compiled_model.create_infer_request()
Definir Entradas # Create tensor from external memory input_tensor = ov.Tensor(array=memory, shared_memory=True) # Set input tensor for model with one input infer_request.set_input_tensor(input_tensor)
Processar os resultados de inferência # Get output tensor for model with one output output = infer_request.get_output_tensor() output_buffer = output.data # output_buffer[] - accessing output tensor data
Produtos relacionados
Este artigo aplica-se a 3 produtos.
Software do processador Intel® Xeon Phi™
OpenVINO™ toolkit
Bibliotecas de desempenho
Avisos legais
O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.