Aumente a capacidade de ação, conte com segurança baseada em hardware e implemente a entrega de serviços dinâmicos com os processadores escaláveis Intel® Xeon®. Apoie sua infraestrutura da nuvem híbrida e aplicativos mais exigentes - incluindo análises na memória, inteligência artificial, condução autônoma, computação de alto desempenho (HPC) e transformação de rede.

Descubra os benefícios da plataforma ›

Processadores Intel® Xeon® Platinum

  • Cargas de trabalho de nuvem híbrida, análises, IA essenciais e exigentes
  • O melhor desempenho
  • Escalabilidade de 2, 4, 8+ soquetes

Processadores Intel® Xeon® Gold

  • Desempenho optimizado para carga de trabalho, confiabilidade avançada
  • Maior velocidade, capacidade e interconexão da memória
  • Escalabilidade aprimorada para 2 a 4 soquetes

Processadores Intel® Xeon® Silver

  • Desempenho essencial e eficiência no consumo de energia
  • Velocidade de memória melhorada
  • Computação, rede e armazenamento de alcance moderado

Processadores Intel® Xeon® Bronze

  • Desempenho acessível para empresas de pequeno porte e armazenamento básico
  • Segurança aprimorada por hardware
  • Escalabilidade para 2 soquetes

Faça mais com seu investimento em nuvem

Entregue o desempenho potente por dólar necessário na tecnologia Intel®. Cargas de trabalho importantes com uso intenso de dados, como banco de dados, além de computação de alto desempenho (HPC) e melhor desempenho da Web com um custo total de propriedade menor nas nuvens baseadas na arquitetura Intel®.1 2 3 4 5

Desempenho 2,84 vezes maior

Desempenho até 2,84 vezes maior/valor investido em cargas de trabalho de banco de dados, incluindo HammerDB PostgreSQL* e MongoDB*.1

Saiba mais

Desempenho 4,15 vezes maior

Desempenho até 4,15 vezes maior/valor investido no LINPACK* e LAMMPS* de alto desempenho.2

Saiba mais

Desempenho 1,74 vez melhor

Melhor desempenho/valor investido em Java no lado do servidor e desempenho 1,74 vez maior/valor investido no WordPress PHP/HVM.3

Saiba mais

Desempenho 2,25 vezes maior

Desempenho até 2,25 vezes maior/valor investido em aplicativos de largura de banda de memória.4

Saiba mais

Portfólio do Intel centrado em dados

Seja mais rápido

Mova os dados mais rápido com Ethernet Intel®

Mova dados mais rapidamente e acelere a entrega dos novos serviços e recursos com o Ethernet Intel®.

Saiba mais sobre a Ethernet Intel® ›

Armazene mais

Inovação única em uma geração

Otimize, armazene e mova conjuntos de dados maiores e mais complicados com a tecnologia Intel® Optane™ DC. Disponível em uma variedade de produtos e soluções, essa inovação revolucionária preenche lacunas críticas na hierarquia de armazenamento e memória, fornecendo memória persistente, grandes pools de memória, cache e armazenamento rápidos.

Memória persistente Intel® Optane™ DC ›

SSDs Intel® Optane™ DC ›

Processe tudo

Desempenho para impulsionar perspectivas

As plataformas líderes do setor da Intel, otimizadas para carga de trabalho, com aceleração de IA integrada, fornecem uma base de desempenho sólida, para ajudar a acelerar o impacto transformador dos dados, desde a multinuvem até a borda e vice-versa de forma inteligente.

Processadores Intel® Xeon® ›

Intel® FPGA ›

Plataforma escalonável Intel® Xeon®: a base para a inovação centrada em dados

Inovações de plataforma revolucionárias para transformações digitais.

Desempenho para impulsionar perspectivas

Os processadores escalonáveis Intel ® Xeon® da 2ª geração fornecem liderança no setor, desempenho de carga de trabalho otimizado, com aceleração de IA integrada, fornecendo uma base de desempenho sólida, para ajudar a acelerar o impacto transformador dos dados, desde a multinuvem até a borda e vice-versa de forma inteligente.

Exibir benchmarks da plataforma

Resiliência de negócios com segurança aprimorada por hardware

Proteção de dados aprimorada pelo design. A segurança aprimorada por hardware da Intel ajuda a impedir vulnerabilidades perigosas, mantendo a integridade e o desempenho da carga de trabalho. Eficiência de criptografia para fornecer entrega de serviço de dados confiável em repouso, em uso e em andamento.

Bibliotecas do Intel® Security para data center (Intel® SecL - DC)

Construa uma infraestrutura confiável

Entrega rápida de serviços

Inovações de plataforma e virtualização aprimorada por hardware por meio de computação, rede e armazenamento, tudo com suporte para uma nova classe de inovação em memória que alimenta a multinuvem econômica, flexível e escalonável, para oferecer de forma consistente experiências incríveis de empresa para empresa e de empresa para consumidor.

Intel® Infrastructure Management Technologies

Transforme cargas de trabalho críticas centradas em dados

Veja como o processador escalonável Intel® Xeon® da 2ª geração e o portfólio centrado em dados da Intel líder no setor podem ajudar você a modernizar sua infraestrutura e acelerar as perspectivas de dados por meio de IA, análises, nuvem e HPC.

Saiba mais

Acelere o tempo de retorno com as soluções Intel® Select

Simplifique a implantação do seu data center com soluções de benchmark, testadas e verificadas rigorosamente, que foram otimizadas para desempenho em situações reais. Essas soluções aceleram a implantação da infraestrutura nos processadores Intel® Xeon® para as cargas de trabalho críticas atuais.

Saiba mais

Saiba mais sobre a Plataforma centrada em dados da Intel

Assista ao vídeo para descobrir como o portfólio de produtos centrados em dados da Intel desbloqueia os benefícios do núcleo do data center de ponta a ponta.

Informações de produto e desempenho

1

Resultados calculados pelo Intel P2CA usando os preços da AWS (US$/hora, período padrão de 1 ano, sem custos iniciais) a partir de 12 de janeiro de 2019.
Teste de desempenho por dólar feito nas instâncias da AWS* EC2 R5 e R5a (https://aws.amazon.com/ec2/instance-type/), comparando o desempenho por dólar da vCPU 96 do processador escalonável Intel® Xeon® ao desempenho por dólar do processador AMD EPYC*.

Carga de trabalho: HammerDB* PostgreSQL*
Resultados: desempenho por dólar do AMD EPYC = linha de base de 1; desempenho por dólar do processador escalonável Intel® Xeon® = 1,85 x (quanto maior, melhor)
Banco de dados: HammerDB - PostgreSQL (quanto maior, melhor):
Instância AWS R5.24xlarge (Intel), HammerDB 3.0 PostgreSQL 10.2, memória: 768 GB, Hipervisor: KVM; tipo de armazenamento: EBS io1, volume de disco 200 GB, armazenamento total 200 GB, docker versão: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB de buffer compartilhado, 256 warehouses, 96 usuários. Pontuação "NOPM" 439931, medida pela Intel em 11/12/18 a 14/12/18.
Instância AWS R5a.24xlarge (AMD), HammerDB 3.0 PostgreSQL 10.2, memória: 768 GB, Hipervisor: KVM; tipo de armazenamento: EBS io1, volume de disco 200 GB, armazenamento total 200 GB, docker versão: 18.06.1-ce, RedHat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB de buffer compartilhado, 256 usuários. Pontuação "NOPM" 212903, medida pela Intel em 20/12/2018.

Carga de trabalho: MongoDB*
Resultados: desempenho por dólar do AMD EPYC = linha de base de 1; desempenho por dólar do processador escalonável Intel® Xeon® = 2,84 x (quanto maior, melhor)
Banco de dados: MongoDB (quanto maior, melhor):
Instância AWS R5.24xlarge (Intel), MongoDB v4.0, diário desativado, sincronização com sistema de arquivos desativada, wiredTigeCache=27GB, maxPoolSize = 256; 7 instâncias MongoDB, 14 VMs de client, 1 client YCSB por VM, 96 threads por client YCSB, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 1229288 ops/seg, medida pela Intel em 10/12/2018.
Instância AWS R5a.24xlarge (AMD), MongoDB v4.0, diário desativado, sincronização com sistema de arquivos desativada, wiredTigeCache=27GB, maxPoolSize = 256; 7 instâncias MongoDB, 14 VMs de client, 1 client YCSB por VM, 96 threads por client YCSB, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 388596 ops/seg, medida pela Intel em 10/12/2018.
Para obter mais informações, acesse www.intel.com.br/benchmarks.

2

Resultados calculados pelo Intel P2CA usando os preços da AWS (US$/hora, período padrão de 1 ano, sem custos iniciais) a partir de 12 de janeiro de 2019.
Teste de desempenho por dólar feito nas instâncias da AWS* EC2 M5 e M5a (https://aws.amazon.com/ec2/instance-type/), comparando o desempenho por dólar da vCPU 96 do processador escalonável Intel® Xeon® ao desempenho por dólar do processador AMD EPYC*.

Carga de trabalho: LAMMPS*
Resultados: desempenho por dólar do AMD EPYC = linha de base de 1; desempenho por dólar do processador escalonável Intel® Xeon® = 4,15 x (quanto maior, melhor)
Ciência de materiais HPC - LAMMPS (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), versão LAMMPS: 2018-08-22 (Código: https://lammps.sandia.gov/download.html), Carga de trabalho: Water – 512 mil partículas, Intel ICC 18.0.3.20180410, SO Intel® MPI Library for Linux*, Versão 2018 Update 3 Build 20180411, 48 MPI Ranks, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Pontuação 137,5 timesteps/seg, medido pela Intel em 31/10/2018.
Instância AWS M5a.24xlarge (AMD), versão LAMMPS: 2018-08-22 (Código: https://lammps.sandia.gov/download.html), Carga de trabalho: Water – 512 mil partículas, Intel ICC 18.0.3.20180410, SO Intel® MPI Library for Linux*, Versão 2018 Update 3 Build 20180411, 48 MPI Ranks, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Pontuação 55,8 timesteps/seg, medido pela Intel em 07/11/2018.
Alterações da AMD para dar suporte a AVX2 (a AMD suporta apenas AVX2, portanto, essas alterações foram necessárias):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Carga de trabalho: Linpack de alto desempenho*
Resultados: desempenho por dólar do AMD EPYC = linha de base de 1; desempenho por dólar do processador escalonável Intel® Xeon® = 4,15 x (quanto maior, melhor)
HPC Linpack (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), HP Linpack versão 2.2 (https://software.intel.com/pt-br/articles/intel-mkl-benchmarks-suite Diretório: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 com AVX512, SO Intel® MPI Library for Linux*, versão 2018 Update 3 Build 20180411, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 processos MPI, pontuação 3152 GB/s, medido pela Intel em 31/10/2018.
Instância AWS M5a.24xlarge (AMD), HP Linpack versão 2.2, (Origem HPL: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; versão 2.2; icc (ICC) 18.0.2 20180210 usado para compilar e vincular à biblioteca BLIS na versão 0.4.0; https://github.com/flame/blis; Addt’l Compiler flags: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 MPI processos.), Intel ICC 18.0.3.20180410 com AVX2, SO Intel® MPI Library for Linux*, versão 2018 Update 3 Build 20180411, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 processos MPI, pontuação 677,7 GB/s, medido pela Intel em 07/11/2018.

3

Resultados calculados pelo Intel P2CA usando os preços da AWS (US$/hora, período padrão de 1 ano, sem custos iniciais) a partir de 12 de janeiro de 2019.
Teste de desempenho por dólar feito nas instâncias da AWS* EC2 M5 e M5a (https://aws.amazon.com/ec2/instance-type/), comparando o desempenho por dólar da vCPU 96 do processador escalonável Intel® Xeon® ao desempenho por dólar do processador AMD EPYC*.

Carga de trabalho: Java* 1 JVM no lado do servidor
Resultados: desempenho por dólar do AMD EPYC = linha de base de 1; desempenho por dólar do processador escalonável Intel® Xeon® = 1,74 x (quanto maior, melhor)
Java do lado do servidor (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), benchmark de servidor Java No NUMA binding, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 101767 ops/seg, medida pela Intel em 16/11/2018.
Instância AWS M5a.24xlarge (AMD), benchmark de servidor Java No NUMA binding, 2JVM, OpenJDK 10.0.1, RedHat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 52068 ops/seg, medida pela Intel em 16/11/2018.

Carga de trabalho: Wordpress* PHP/HHVM*
Resultados: desempenho do AMD EPYC ([Desempenho do AMD EPYC]) por dólar = linha de base de 1; desempenho do processador escalonável Intel Xeon ([O processador] ([A > %75)) = 1,75X (quanto maior, melhor)
Wordpress de front-end da Web (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), oss-performance/wordpress Ver 4.2.0; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; versão da carga de trabalho': u'4.2.0; Client Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, pontuação 3626.11 TPS, medida pela Intel em 16/11/2018.
Instância AWS M5a.24xlarge (AMD), oss-performance/wordpress Ver 4.2.0; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; versão da carga de trabalho': u'4.2.0; Client Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, pontuação 1838.48 TPS, medida pela Intel em 16/11/2018.
Para obter mais informações, acesse www.intel.com.br/benchmarks.

4

Instância AWS M5.4xlarge (Intel), McCalpin Stream (versão OMP), (Fonte: https://www.cs.virginia.edu/stream/FTP/Code/stream.c, ICC Intel 18.0.3 20180410 com AVX512, qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qoptstreaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, Pontuação 81216,7 MB/s, medido pela Intel em 06/12/2018.
Instância AWS M5a.4xlarge (AMD), McCalpin Stream (versão OMP), (Fonte: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); ICC Intel 18.0.3 20180410 com AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY : proclist=[0-7:1], granularity=thread,explicit, Pontuação 32154,4 MB/s, medido pela Intel em 06/12/2018.
Isenção de responsabilidade da OpenFOAM: esta oferta não é aprovada ou promovida pela OpenCFD Limited, produtor e distribuidor do software OpenFOAM via www.openfoam.com e proprietário das marca registradas OpenFOAM* e OpenCFD*.
Preços da AWS a partir de 12 de janeiro de 2019 Preço de instância reservada pelo período padrão de 1 ano (https://aws.amazon.com/ec2/pricing/reserved-instances/pricing/) Preços sob demanda para uso do Linux/Unix por hora (https://aws.amazon.com/ec2/pricing/on-demand/).

5

Até 30x de melhoria de processamento de inferência no processador platina Intel® Xeon® 9282 com o Intel® Deep Learning Boost (Intel® DL Boost): testado pela Intel a partir de 26/02/2019. Plataforma: processador platina Intel® Xeon® 9282 (56 núcleos por soquete) com 2 soquetes Dragon rock, HT ATIVADO, Turbo ATIVADO, memória total de 768 GB (24 slots/32 GB/2933 MHz), BIOS: SE5C620.86B.0D.01.0241.112020180249, CentOS 7 Kernel 3.10.0-957.5.1.el7.x86_64, estrutura de aprendizagem profunda: Intel® Optimization for Caffe* versão: https://github.com/intel/caffe d554cbf1, ICC 2019.2.187, MKL DNN versão: v0.17 (hash de confirmação: 830a10059a018cd2634d94195140cf2d8790a75a), modelo: https://github.com/intel/caffe/blob/master/models/intel_optimized_models/int8/resnet50_int8_full_conv.prototxt, BS=64, sem dados sintéticos na camada de dados: 3x224x224, 56 instâncias/2 soquetes, Tipo de dados: INT8 em comparação com teste da Intel de 11 de julho de 2017: CPU processador platina Intel® Xeon® 8180 2S a 2,50 GHz (28 núcleos), HT desativado, turbo desativado, regulador de escalonamento definido como "desempenho" via driver intel_pstate, RAM DDR4-2666 ECC de 384 GB. CentOS Linux* versão 7.3.1611 (Core), Linux* kernel 3.10.0-514.10.2.el7.x86_64. SSD: Data center SSD Intel® SSD série S3700 (800 GB, 2,5 polegadas, SATA 6 Gb/s, 25 nm, MLC). Desempenho medido com: variáveis do ambiente: KMP_AFFINITY='granularity=fine, compact‘, OMP_NUM_THREADS=56, CPU freq set with CPU Power frequency-set -d 2.5G -u 3.8G -g performance. Caffe: (http://github.com/intel/caffe/), revisão f96b759f71b2281835f690af267158b82b150b5c. Inferência medida com o comando "caffe time --forward_only", treinamento medido com o comando "caffe time". Para topologias "ConvNet", foi usado um conjunto de dados artificial. Para outras topologias, os dados foram armazenados no armazenamento local e salvos em cache antes do treinamento. Especificações de topologia de https://github.com/intel/caffe/tree/master/models/intel_optimized_models(ResNet-50). Compilador Intel® C++ ver. 17.0.2 20170213, pequenas Bibliotecas kernel de math da Intel® versão 2018.0.20170425. Caffe funciona com "numactl -l".