Etapas para converter o modelo SSD MobileNet V2 personalizado para IR usando o Otimizador de Modelo
Modelo de SSD MobileNetV2 pré-treinado convertido para IR, mas não é capaz de converter um modelo treinado sob medida.
- Gráfico de modelo congelado exportado:
python object_detection/export_inference_graph.py \ --input_type=image_tensor \ -pipeline_config_path={PIPELINE_CONFIG_PATH} \ --output_directory="exported_model" \ -trained_checkpoint_prefix="/content/models/research/helmet_detector/model.ckpt-10000"
- Tentou converter gráficos de modelo congelados em IR usando o Otimizador de Modelo:
python mo_tf.py \ --input_model ./exported_model/frozen_inference_graph.pb \ -tensorflow_use_custom_operations_config extensions/front/tf/ssd_v2_support.json \ -tensorflow_object_detection_api_pipeline_config ./helment_detector_tf1.config \ -input_shape [1.300.300,3] \ --reverse_input_channels \ -output_dir output_ncs \ -data_type FP16
- Erro encontrado:
[ ERRO ] Exceção ocorreu durante a execução do "REPLACEMENT_ID" (): exceção inesperada aconteceu durante a extração de atributos para statefulpartitionedCall/Postprocessor/BatchMultiClassNonMaxSuppression/map/while. Mensagem de exceção original: '^Postprocessor/BatchMultiClassNonMaxSuppression/map/while/MultiClassNonMaxSuppression/SortByField/Assert/Assert'
No comando conversão model optimizer, use o arquivo de config de operações personalizadas apropriado para modelos SSD MobileNetV2 gerados com os modelos TensorFlow* 1: ssd_support_api_v1.15.json. Consulte a página a seguir para obter instruções de conversão: Como converter um modelo
python3 ./openvino/model-optimizer/mo_tf.py --input_model ./detector/exported_model/frozen_inference_graph.pb --tensorflow_use_custom_operations_config ./openvino/model-optimizer/extensions/front/tf/ssd_support_api_v1.15.json -tensorflow_object_detection_api_pipeline_config ./detector/helment_detector_tf1.config --input_shape [1.300.300,3] -reverse_input_channels -data_type FP16