Novidade: Desde o lançamento do OpenVINO™ em 2018, a Intel permitiu que centenas de milhares de desenvolvedores acelerassem drasticamente o desempenho de inferência de IA, começando na borda e se estendendo à empresa e ao cliente. Hoje, à frente da MWC Barcelona 2022, a empresa lançou uma nova versão do Intel® Distribution do OpenVINO Toolkit. Os novos recursos foram construídos após três anos e meio de feedback de desenvolvedores e incluem uma maior seleção de modelos de aprendizagem profunda, mais opções de portabilidade de dispositivos e maior desempenho de inferência com menos alterações de código.
"O lançamento mais recente do OpenVINO 2022.1 baseia-se em mais de três anos de aprendizados de centenas de milhares de desenvolvedores para simplificar e automatizar otimizações. A atualização mais recente adiciona a detecção automática de hardware e a otimização automática, para que os desenvolvedores de software possam obter o desempenho ideal em todas as plataformas. Este software, com o silício da Intel, permite uma vantagem significativa do ROI de IA e é implantado facilmente nas soluções baseadas na Intel em sua rede."
Mais Sobre o OpenVINO: O Intel Distribution of OpenVINO toolkit – construído com base na fundação da oneAPI – é um conjunto de ferramentas para aprendizado profundo de alto desempenho, direcionado a resultados mais rápidos e precisos do mundo real implantados na produção em diversas plataformas Intel, da borda à nuve (edge to cloud). O OpenVINO permite que aplicativos e algoritmos de alto desempenho sejam implantados no mundo real com um fluxo de trabalho de desenvolvimento simplificado.
Por que isso importa: A Edge AI está mudando todos os mercados, permitindo casos de uso novos e aprimorados em todos os setores, desde aplicações de manufatura e saúde e ciências da vida até varejo, segurança e segurança. De acordo com uma pesquisa da Omdia, a receita global de chipsets de IA de borda chegará a US$ 51,9 bilhões até 2025, impulsionada pela crescente necessidade de inferência de IA na borda. A inferência de borda reduz a latência e largura de banda e melhora o desempenho para atender às demandas de processamento cada vez mais críticas dos dispositivos e aplicativos emergentes de Internet das Coisas (IoT).
Em paralelo, as cargas de trabalho dos desenvolvedores estão cada vez maiores e mudando. Como resultado, eles estão exigindo processos e ferramentas mais simples e automatizadas com recursos inteligentes e abrangentes para desempenho otimizado, desde a construção até a implantação.
Sobre o OpenVINO 2022.1 Características: Novos recursos tornam mais simples para os desenvolvedores adotarem, manterem, otimizarem e implantarem códigos com facilidade em uma gama expandida de modelos de deep learning. Os destaques incluem:
API atualizada e mais limpa
- Menos alterações de código ao fazer a transição de frameworks: Os formatos de precisão agora são preservados com menos fundição, e os modelos não precisam mais de conversão de layout.
- Um caminho mais fácil para a IA mais rápida: Os parâmetros de API do Model Optimizer foram reduzidos para minimizar a complexidade.
- Treine com inferência em mente: As extensões de treinamento OpenVINO e a estrutura de compressão de rede neural (NNCF, na sigla em inglês) oferecem modelos opcionais de treinamento de modelos que fornecem aprimoramentos adicionais de desempenho com precisão preservada para reconhecimento de ação, classificação de imagem, reconhecimento de fala, resposta a perguntas e tradução.
Suporte a modelos mais amplos
- Suporte mais amplo para modelos de programação de linguagem natural e casos de uso, como reconhecimento de texto para fala e voz: O suporte de formas dinâmicas permite melhor que a família BERT e os transformadores Hugging Face.
- Otimização e suporte para visão computacional avançada: A família Mask R-CNN está agora mais otimizada e o suporte ao modelo de dupla precisão (FP64) foi introduzido.
- Suporte direto para modelos PaddlePaddle: O Model Optimizer agora pode importar os modelos PaddlePaddle diretamente sem antes converter para outra estrutura.
Portabilidade e desempenho
- Uso mais inteligente do dispositivo sem modificar código: O modo AUTOMÁTICO auto-descobre a capacidade de inferência do sistema disponível com base nos requisitos do modelo, para que os aplicativos não precisem mais conhecer seu ambiente de computação com antecedência.
- Otimização de especialistas incorporada no kit de ferramentas: Através da funcionalidade de loteamento automático, o desempenho do dispositivo é aumentado, ajustando e personalizando automaticamente as configurações de throughput adequadas para a configuração do sistema de desenvolvedores e o modelo de aprendizagem profunda. O resultado é o paralelismo escalável e o uso otimizado da memória.
- Construído para o Intel® Core™ de 12ª Geração: Suporta a arquitetura híbrida para oferecer melhorias para inferência de alto desempenho na CPU e GPU integrada.
Sobre a adoção do Edge: Com uma gravação feita uma vez, implantar qualquer abordagem, os desenvolvedores podem escrever um aplicativo ou algoritmo e implantá-lo em toda a arquitetura Intel, incluindo CPU, iGPU, Movidius VPU e GNA. Com a explosão de dados, a Intel criou um software que capacita os desenvolvedores a extrairem a mais inteligência de seus dados para resolver desafios e transformar modelos de negócios. Como resultado, a nova e única IA infere a adoção no limite e se estendendo para a empresa e o cliente está crescendo.
A plataforma de IA da Zeblok como um serviço, chamado AI-MicroCloud, é uma plataforma MLDevOps em nuvem para borda que permite que os clientes misturem e combinem ISVs e fornecedores de IA em escala para fornecer aplicativos de IA de borda, enquanto suportam um ciclo de vida de implantação completo. O software OpenVINO da Intel é integrado ao AI-MicroCloud, permitindo um desempenho de inferência de IA dramaticamente melhorado com o melhor custo por insight usando processadores Intel. A plataforma AI-MicroCloud da Zeblok está sendo avaliada para implantação com topologias de rede específicas em municípios ao redor do mundo atualmente.
"Nós da Zeblok pensamos no custo por insight – essa é a nossa missão. Os processadores Intel que aproveitamos são econômicos, eficientes para inferência de IA e fornecem ROI alto. Com esta nova versão do OpenVINO, o valor para o nosso ecossistema só vai ficar mais emocionante", disse Mouli Narayanan, fundador e CEO da Zeblok.
A American Tower construiu seis data centers de borda, com sites adicionais no horizonte, e recentemente adquiriu o CoreSite para acelerar implantações de borda com 5G. Eles estão trabalhando em conjunto com a Intel e a Zeblok para habilitar uma solução completa para os clientes.
"Com a infraestrutura de borda da American Tower, os recursos de aprendizado profundo OpenVINO da Intel e a plataforma de IA da Zeblok como serviço, podemos permitir uma solução inteligente completa para o mercado", disse Eric Watko, vice-presidente de Inovação da American Tower.
Mais Contexto:Intel na MWC Barcelona 2022 (Press Kit) | Distribuição Intel do OpenVINO Toolkit | Visão geral da distribuição Intel do OpenVINO Toolkit | de Documentação de Cadernos OpenVINO | Intel Innovation: Notícias de Inteligência Artificial