Intel® Distribution do kit de ferramentas OpenVINO™

753640
2/6/2025

Introdução

Este pacote contém a Intel® Distribution do software OpenVINO™ Toolkit versão 2025.0 para Linux*, Windows* e macOS*.

Downloads disponíveis

  • Debian Linux*
  • Tamanho: 31.8 MB
  • SHA256: 7C821B3DF2EA1A5962D4BE07867DFED226B702AC7F2CFED74D544D9B35DCE818
  • CentOS 7 (1908)*
  • Tamanho: 56.4 MB
  • SHA256: C34B7EB9094D618F58B0628B5EC9CA6F1FF49674F4D95FD3772C389B8C037A57
  • Red Hat Enterprise Linux 8*
  • Tamanho: 61.3 MB
  • SHA256: CEB682A4DF4B8A86157686902EBC31FC4927849A708B0B8BB111D475C2A9ECCB
  • Ubuntu 20.04 LTS*
  • Tamanho: 64.5 MB
  • SHA256: 622D5D1B710862659BA530ECC7AA2B9C6F1D84C12819D208F68178474791A2ED
  • Ubuntu 20.04 LTS*
  • Tamanho: 35.6 MB
  • SHA256: D4282BC95F615EFB21646031ACCDEEBC6B4544452996C15DB3A6483FC46AE396
  • Ubuntu 22.04 LTS*
  • Tamanho: 55.4 MB
  • SHA256: 09E8127DAF7EF42851F0C724CE93181B9256568BB6FC8E79CC8F33F4AB6D6F3E
  • Tamanho: 56.5 MB
  • SHA256: E1681AA6CA02765A5F422EBFF6FD86EBD2C6C0EBD4EFB4E04DDA0EDB79EA30BB
  • macOS*
  • Tamanho: 46.2 MB
  • SHA256: 59BA68B752BE3C298DF45AFD55428A872B39C35813A3C53697CF49591A843D2C
  • macOS*
  • Tamanho: 36.4 MB
  • SHA256: 1628F809540D9A2AB22DFB48B2EA815C75E49EF9AE436AB29412F868886F05F5
  • Windows 11*, Windows 10*
  • Tamanho: 117.6 MB
  • SHA256: B6D96E6ED184A499C054C07BE8619946B4F851F60BF725077E9683FE14719E2B

Descrição detalhada

Quais as novas

  • Mais cobertura de GenAI e integrações de frameworks para minimizar as mudanças de código.
    • Novos modelos suportados: Qwen 2.5, Deepseek-R1-Destilado-Llama-8B, DeepSeek-R1-Destilado-Qwen-7B e DeepSeek-R1-Destilado-Qwen-1,5B, FLUX.1 Schnell e FLUX.1 Dev.
    • Modelo Whisper: desempenho aprimorado em CPUs, GPUs integradas e GPUs dedicadas com API GenAI.
    • Pré-visualização: Apresentando o suporte da NPU para torch.compile, oferecendo aos desenvolvedores a capacidade de usar o OpenVINO backend para executar a API PyTorch em NPUs. Mais de 300 modelos de aprendizagem profunda habilitados nos repositórios TorchVision, Timm e TorchBench.
  • Suporte para Broader Large Language Model (LLM) e mais técnicas de compactação de modelo.
    • Pré-visualização: a adição de pesquisa do Prompt à API GenAI melhora a latência do 2º token para LLMs utilizando efetivamente prompts pré-definidos que correspondem ao caso de uso pretendido.
    • Pré-visualização: a API GenAI agora oferece funcionalidade de inpinção imagem a imagem. Este recurso permite que modelos gerem conteúdo realistaintetizando modificações especificadas e integrando-as perfeitamente com a imagem original.
    • A compressão assimétrica de cache KV está agora habilitada para INT8 em CPUs, resultando em menor consumo de memória e maior latência de 2º token, especialmente ao lidar com prompts longos que requerem memória significativa. A opção deve ser especificada explicitamente pelo usuário.
  • Mais portabilidade e desempenho para executar IA na borda, na nuvem ou localmente.
    • Suporte para os mais recentes processadores Intel® Core™ Ultra série 200H (codinome anterior Arrow Lake-H)
    • A integração do back-end OpenVINO™ com o Servidor de inferência Triton permite que os desenvolvedores utilizem o servidor Triton para um modelo aprimorado que oferece desempenho ao serem implantados em CPUs Intel.
    • Pré-visualização: uma nova integração de back-end OpenVINO™ permite que os desenvolvedores aproveitem OpenVINO otimizações de desempenho diretamente nos fluxos de trabalho do Keras 3 para inferências de IA mais rápidas em CPUs, GPUs integradas, GPUs dedicadas e NPUs. Este recurso está disponível com o lançamento mais recente do Keras 3.8.
    • O OpenVINO Model Server agora suporta implantações nativas do Windows Server, permitindo que os desenvolvedores aproveitem melhor desempenho eliminando a sobrecarga de contêineres e simplificando a implantação de GPU.

Agora descontinuado

  • Prefixos legados l_, w_ e m_ foram removidos de nomes de arquivos OpenVINO.
  • O namespace do tempo de execução para a API Python foi marcado como obsoleto e designado para ser removido para 2026.0. A nova estrutura de namespace foi entregue e a migração é possível imediatamente. Os detalhes serão comunicados por meio de avisos e por meio de documentação.
  • O método create_compressed_model() NNCF está obsoleto. O método nncf.quantize() é agora recomendado para treinamento quantização consciente dos modelos PyTorch e TensorFlow.

Instruções de instalação

Você pode escolher como instalar o OpenVINO™ Runtime de acordo com o seu sistema operacional:

O que está incluído no pacote de download

  • OpenVINO™ mecanismo de tempo de execução/inferência para APIs C/C++ e Python

Links úteis

NOTA: Os links são abertos em uma nova janela.

Esse download é válido para os produtos a seguir.

O conteúdo desta página é uma combinação de tradução humana e por computador do conteúdo original em inglês. Este conteúdo é fornecido para sua conveniência e apenas para informação geral, e não deve ser considerado completo ou exato. Se houver alguma contradição entre a versão em inglês desta página e a tradução, a versão em inglês prevalecerá e será a determinante. Exibir a versão em inglês desta página.