Não é possível usar o POT para otimizar um modelo tensorflow (TF) ou MXNet para inferência com o kit de ferramentas OpenVINO™ em uma plataforma Intel Atom®.
Escolha uma de duas opções:
$ python3 -m pip instalar virtualenv
$ python3 -m virtualenv -p 'qual python3'
Consulte os seguintes links para construir a partir da fonte:
Da mesma forma que o MXNet, TensorFlow (TF) da pypi é enviado com AVX a partir da versão 1.6. Intel Atom® processador E3950 suporta instruções de SSE e não suporta AVX. Portanto, a importação de modelos TF ou MXNet causará um erro de instrução ilegal quando o POT for executado em dispositivos sem suporte AVX.
O pot em si não depende diretamente de TF ou MXNet. POT depende do otimizador de modelos e do checker de precisão, que pode depender de TF ou MXNet. Para minimizar essa situação, OpenVINO™ kit de ferramentas 2021.1 limita a importação de TensorFlow para casos em que esta biblioteca é realmente utilizada, como quando se avalia um modelo usando o TF como backend. O MXNet também é problemático para o mesmo cenário, por isso é possível fazer o mesmo por ele.
No entanto, sistemas SSE, como Intel Atom® plataformas, não são usados para fins de calibração. Não é recomendável usar plataformas Intel Atom® para quantização POT.