ID do artigo: 000059580 Tipo de conteúdo: Solução de problemas Última revisão: 07/03/2023

Não é possível obter o resultado médio de precisão (mAP) ao executar Accuracy_check ferramenta de otimização pós-treinamento (POT)

BUILT IN - ARTICLE INTRO SECOND COMPONENT
Resumo

Como usar o checker de precisão para POT

Descrição
  1. Comando DE POT de correção:

    pot -c yolov4-tiny_voc.json -output-dir backup -e
    Saída: INFO:app.run.detection_accuracy:0.0

  2. O comando De verificação de precisão de correção: accuracy_check -c yolov4-tiny_voc.yml -td CPU oferece o seguinte resultado:

    accuracy_checker AVISO: /opt/intel/openvino_2021/deployment_tools/open_model_zoo/tools/accuracy_checker/accuracy_checker/metrics/detection.py:201: UserWarning: Sem detecções para computar mAP
    warnings.warn("Sem detecções para computar mAP")

    mapa: 0,00%
    AP@0.5: 0,00%
    AP@0.5:0.05:95: 0,00%

Resolução

O conjunto de dados Visual Object Classes Challenge (VOC) não é validado pela Intel. A Intel validou a precisão usando o conjunto de dados Common Objects in Context (COCO), conforme mencionado na documentação Yolo-v4-tf. Ao usar coco_precision para calcular o mAP para o conjunto de dados não-COCO, isso pode não dar o melhor resultado.

Para evitar obter 0,00% de valor de mAP durante a execução do checker de precisão, mude de conjunto de dados VOC para MSCOCO e use diferentes métricas , como detection_accuracy que funcionam com a representação de detecção de notação.

Consulte Como executar exemplos para obter etapas para verificar a precisão dos modelos.

Produtos relacionados

Este artigo aplica-se a 1 produtos

O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.