Receba mais desempenho para cada dólar gasto na AWS* com seus dados na Intel

Descubra a vantagem de escolher as instâncias com base nos processadores escalonáveis Intel® Xeon®.

Você está recebendo o melhor valor de seu investimento na AWS*?

A nuvem oferece a escalabilidade, a confiabilidade e a flexibilidade de que você precisa, mas nem todas as nuvens são criadas da mesma forma: algumas instâncias oferecem muito mais valor do que outras. Para entender a escolha ideal, você precisa analisar o desempenho das cargas de trabalho específicas. Uma estatística genérica de desempenho pode não dizer muito sobre os resultados que você verá, especialmente se estiver executando cargas de trabalho que fazem uso intensivo de computação ou de dados. Da mesma forma, saber o preço por instância não diz muito sobre o preço por transação ou qualquer outra métrica real de negócios ou desempenho. Você precisa olhar mais de perto.

Por exemplo, você sabia que as instâncias da AWS* baseadas nos processadores escalonáveis Intel® Xeon® podem oferecer até 4,15x mais desempenho por dólar para cargas de trabalho de computação de alto desempenho (HPC)1, comparadas às instâncias baseadas em processadores AMD EPYC*, de acordo com o benchmark Linpack de alto desempenho*? Eles oferecem até 2,19x mais desempenho por dólar, de acordo com o benchmark LAMMPS*.1 Para cargas de trabalho de banco de dados na AWS, os processadores escalonáveis Intel® Xeon® podem proporcionar até 2,84x mais desempenho por dólar2; e para cargas de trabalho com uso intensivo da largura de banda de memória, eles podem permitir um desempenho até 2,25x maior por dólar.3 Se você estiver executando cargas de trabalho baseadas na Web, como Java* no lado do servidor ou Wordpress PHP/HVM*, você poderá descobrir que eles oferecem um desempenho 1,74x maior por dólar executado na Intel.4

Se você já estiver usando os processadores Intel®, também poderá economizar mudando para uma instância mais moderna, com base no processador escalonável Intel® Xeon®. A TSO Logic oferece recomendações orientadas por dados para o tamanho certo e a computação de custo certo em nuvem pública e privada. Ela estudou milhões de pontos de dados em seu repositório de 100.000 instâncias de dados anônimos de clientes AWS. A conclusão? 19% das instâncias atuais podem economizar dinheiro ao migrar para tipos de instâncias mais recentes e menores do Amazon EC2*, que oferecem desempenho equivalente a um custo menor. Por exemplo, a migração de instâncias mais antigas do C4.8XLarge para as mais recentes do C5.4XLarge pode economizar até 50% dos custos de nuvem, mais de US$ 3.000 por instância.5 E mais, a economia pode aumentar rapidamente se você estiver licenciando software por núcleo. A TSO Logic descobriu que uma carga de trabalho poderia ser entregue usando 40 núcleos a menos executados em instâncias mais recentes com base na 2ª geração de processadores escalonáveis Intel® Xeon®.5 Se você executar um banco de dados comercial licenciado a US$ 1.800 por núcleo, poderá economizar US$ 72.000 por ano, cortando a contagem de núcleos em 40.5

Os processadores escalonáveis Intel® Xeon® e a 2ª geração de processadores escalonáveis Intel® Xeon® têm uma variedade de otimizações integradas para acelerar as cargas de trabalho. O formato de número INT8 permite que detalhes desnecessários sejam descartados para acelerar o aprendizado de máquina; e o Intel® Deep Learning Boost (Intel® DL Boost) fornece uma nova instrução do processador para acelerar a inferência em aplicativos, como classificação de imagem, reconhecimento de voz, tradução de idiomas e detecção de objetos. Intel® Advanced Vector Extensions 512 (Intel® AVX-512) oferece instruções de vetor de 512 bits para acelerar os cálculos de ponto flutuante, incluindo as simulações científicas. A tecnologia Intel® Turbo Boost permite executar os núcleos mais rapidamente do que a frequência operacional básica, proporcionando desempenho extra quando você mais precisa. Para ajudar a proteger os dados, o Intel® Advanced Encryption Standard New Instructions (Intel® AES-NI) fornece as instruções do processador para acelerar a criptografia e a descriptografia.

Avisos e Isenções de responsabilidade:

Talvez o software e as cargas de trabalho utilizados nos testes de desempenho tenham sido otimizados apenas para desempenho em microprocessadores Intel®. Testes de desempenho, como SYSmark* e MobileMark*, são medidos usando sistemas de computação, componentes, software, operações e funções específicos. Qualquer modificação em algum desses fatores pode provocar variação nos resultados. Consulte outras informações e outros testes de desempenho para ajudá-lo a avaliar melhor as suas compras, incluindo o desempenho desse produto quando combinado com outros produtos. Para obter informações mais completas, acesse www.intel.com/benchmarks.

Os resultados de desempenho são baseados em testes realizados na data estabelecida nas Configurações e podem não refletir todas as atualizações de segurança disponíveis ao público. Para obter detalhes, consulte a publicação da configuração. Nenhum produto ou componente pode ser totalmente seguro.
A Intel não controla ou audita dados de terceiros. Você deve rever esse conteúdo, consultar outras fontes e confirmar a precisão dos dados mencionados.

Os cenários de redução de custos descritos destinam-se a servir de exemplos de como um determinado produto baseado na Intel®, dentro das circunstâncias e configurações especificadas, pode afetar custos futuros e oferecer economia de custos. As circunstâncias variarão. A Intel não garante nenhum custo ou redução de custo.

Os recursos e benefícios das tecnologias Intel® dependem da configuração do sistema e podem requerer hardware habilitado, software específico ou ativação de serviços. O desempenho varia dependendo da configuração do sistema. Consulte o fabricante ou revendedor de seu sistema, ou saiba mais em intel.com.

Intel, o logotipo da Intel e Xeon são marcas comerciais da Intel Corporation ou de suas subsidiárias, nos EUA e/ou em outros países.

*Outros nomes e marcas podem ser propriedade de outras empresas. 
© Intel Corporation

Informações de produto e desempenho

1

Resultados calculados pela Intel usando os preços da AWS (US$/hora, período padrão de 1 ano, sem custos iniciais) a partir de 12 de janeiro de 2019.
Teste de desempenho por dólar feito nas instâncias da AWS* EC2 M5 e M5a (https://aws.amazon.com/ec2/instance-type/), comparando o desempenho por dólar da vCPU 96 do processador escalonável Intel® Xeon® ao desempenho por dólar do processador AMD EPYC*.

Carga de trabalho: LAMMPS*
Resultados: desempenho do AMD EPYC por dólar = linha de base de 1; desempenho do processador escalonável Intel® Xeon® por dólar = 2,19X (quanto maior, melhor).
Ciência de materiais HPC - LAMMPS (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), versão LAMMPS: 2018-08-22 (Código: https://lammps.sandia.gov/download.html), Carga de trabalho: Water – 512 mil partículas, Intel ICC 18.0.3.20180410, Intel® MPI Library for Linux* OS, Versão 2018 Update 3 Build 20180411, 48 MPI Ranks, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Pontuação 137,5 timesteps/s, medido pela Intel em 31/10/2018.
Instância AWS M5a.24xlarge (AMD), versão LAMMPS: 2018-08-22 (Código: https://lammps.sandia.gov/download.html), Carga de trabalho: Water – 512 mil partículas, Intel ICC 18.0.3.20180410, Intel® MPI Library for Linux* OS, Versão 2018 Update 3 Build 20180411, 48 MPI Ranks, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=2, Pontuação 55,8 timesteps/s, medido pela Intel em 07/11/2018.
Alterações da AMD para dar suporte a AVX2 (a AMD suporta apenas AVX2, portanto, essas alterações foram necessárias):
sed -i 's/-xHost/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi
sed -i 's/-qopt-zmm-usage=high/-xCORE-AVX2/g' Makefile.intel_cpu_intelmpi

Carga de trabalho: Linpack de alto desempenho*
Resultados: desempenho do AMD EPYC por dólar = linha de base de 1; desempenho do processador escalonável Intel® Xeon® por dólar = 4,15X (quanto maior, melhor).
HPC Linpack (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), HP Linpack versão 2.2 (https://software.intel.com/en-us/articles/intel-mkl-benchmarks-suite Diretório: benchmarks_2018.3.222/linux/mkl/benchmarks/mp_linpack/bin_intel/intel64), Intel ICC 18.0.3.20180410 com AVX512, Intel® MPI Library for Linux* OS, versão 2018 Update 3 Build 20180411, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=24, 2 processos MPI, pontuação 3152 GB/s, medido pela Intel em 31/10/2018.
Instância AWS M5a.24xlarge (AMD), HP Linpack versão 2.2, (Origem HPL: http://www.netlib.org/benchmark/hpl/hpl-2.2.tar.gz; versão 2.2; icc (ICC) 18.0.2 20180210 usado para compilar e vincular à biblioteca BLIS na versão 0.4.0; https://github.com/flame/blis; Addt’l Compiler flags: -O3 -funroll-loops -W -Wall –qopenmp; make arch=zen OMP_NUM_THREADS=8; 6 MPI processos.), Intel ICC 18.0.3.20180410 com AVX2, Intel® MPI Library for Linux* OS, versão 2018 Update 3 Build 20180411, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS=8, 6 processos MPI, pontuação 677,7 GB/s, medido pela Intel em 07/11/2018.

2

Resultados calculados pela Intel usando os preços da AWS (US$/hora, período padrão de 1 ano, sem custos iniciais) a partir de 12 de janeiro de 2019.
Teste de desempenho por dólar feito nas instâncias da AWS* EC2 R5 e R5a (https://aws.amazon.com/ec2/instance-type/), comparando o desempenho por dólar da vCPU 96 do processador escalonável Intel® Xeon® ao desempenho por dólar do processador AMD EPYC*.

Carga de trabalho: HammerDB* PostgreSQL*
Resultados: desempenho do AMD EPYC por dólar = linha de base de 1; desempenho do processador escalonável Intel® Xeon® por dólar = 1,85X (quanto maior, melhor).
Banco de dados: HammerDB - PostgreSQL (quanto maior, melhor):
Instância AWS R5.24xlarge (Intel), HammerDB 3.0 PostgreSQL 10.2, memória: 768 GB, Hipervisor: KVM; tipo de armazenamento: EBS io1, volume de disco 200 GB, armazenamento total 200 GB, docker versão: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB de buffer compartilhado, 256 warehouses, 96 usuários. Pontuação "NOPM" 439931, medida pela Intel em 11/12/18 a 14/12/18.
Instância AWS R5a.24xlarge (AMD), HammerDB 3.0 PostgreSQL 10.2, memória: 768 GB, Hipervisor: KVM; tipo de armazenamento: EBS io1, volume de disco 200 GB, armazenamento total 200 GB, docker versão: 18.06.1-ce, Red Hat* Enterprise Linux 7.6, 3.10.0-957.el7.x86_64, 6400 MB de buffer compartilhado, 256 warehouses, 96 usuários. Pontuação "NOPM" 212903, medida pela Intel em 20/12/2018.

Carga de trabalho: MongoDB*
Resultados: desempenho do AMD EPYC por dólar = linha de base de 1; desempenho do processador escalonável Intel® Xeon® por dólar = 2,84X (quanto maior, melhor).
Banco de dados: MongoDB (quanto maior, melhor):
Instância AWS R5.24xlarge (Intel), MongoDB v4.0, diário desativado, sincronização com sistema de arquivos desativada, wiredTigeCache=27GB, maxPoolSize = 256; 7 instâncias MongoDB, 14 VMs de client, 1 client YCSB por VM, 96 threads por client YCSB, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 1229288 op./s, medida pela Intel em 10/12/2018.
Instância AWS R5a.24xlarge (AMD), MongoDB v4.0, diário desativado, sincronização com sistema de arquivos desativada, wiredTigeCache=27GB, maxPoolSize = 256; 7 instâncias MongoDB, 14 VMs de client, 1 client YCSB por VM, 96 threads por client YCSB, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 388596 op./s, medida pela Intel em 10/12/2018.
Para obter mais informações, acesse www.intel.com.br/benchmarks.

3

Instância AWS M5.4xlarge (Intel), McCalpin Stream (versão OMP), (Fonte: https://www.cs.virginia.edu/stream/FTP/Code/stream.c), ICC Intel 18.0.3 20180410 com AVX512, -qopt-zmm-usage=high, -DSTREAM_ARRAY_SIZE=134217728 -DNTIMES=100 -DOFFSET=0 –qopenmp, -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread, explicit, Pontuação 81216,7 MB/s, medido pela Intel em 06/12/2018.
Instância AWS M5a.4xlarge (AMD), McCalpin Stream (versão OMP), (Fonte: https://www.cs.virginia.edu/stream/FTP/Code/stream.c); ICC Intel 18.0.3 20180410 com AVX2, -DSTREAM_ARRAY_SIZE=134217728, -DNTIMES=100 -DOFFSET=0 -qopenmp -qopt-streaming-stores always -o $OUT stream.c, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, OMP_NUM_THREADS: 8, KMP_AFFINITY: proclist=[0-7:1], granularity=thread,explicit, Pontuação 32154,4 MB/s, medido pela Intel em 06/12/18.
Isenção de responsabilidade da OpenFOAM: esta oferta não é aprovada ou promovida pela OpenCFD Limited, produtora e distribuidora do software OpenFOAM por meio do site www.openfoam.com e proprietária das marcas registradas OPENFOAM® e OpenCFD®.

4

Resultados calculados pelo Intel usando os preços da AWS (US$/hora, período padrão de 1 ano, sem custos iniciais) a partir de 12 de janeiro de 2019.
Teste de desempenho por dólar feito nas instâncias da AWS* EC2 M5 e M5a (https://aws.amazon.com/ec2/instance-type/), comparando o desempenho por dólar da vCPU 96 do processador escalonável Intel® Xeon® ao desempenho por dólar do processador AMD EPYC*.

Carga de trabalho: Java* 1 JVM no lado do servidor
Resultados: desempenho do AMD EPYC por dólar = linha de base de 1; desempenho do processador escalonável Intel® Xeon® por dólar = 1,74X (quanto maior, melhor).
Java do lado do servidor (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), benchmark de servidor Java No NUMA binding, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 101767 op./s, medida pela Intel em 16/11/2018.
Instância AWS M5a.24xlarge (AMD), benchmark de servidor Java No NUMA binding, 2JVM, OpenJDK 10.0.1, Red Hat* Enterprise Linux 7.5, Kernel 3.10.0-862.el7.x86_64, pontuação 52068 op./s, medida pela Intel em 16/11/2018.

Carga de trabalho: WordPress* PHP/HHVM*
Resultados: desempenho do AMD EPYC por dólar = linha de base de 1; desempenho do processador escalonável Intel® Xeon® por dólar = 1,75X (quanto maior, melhor).
WordPress de front-end da Web (quanto maior, melhor):
Instância AWS M5.24xlarge (Intel), oss-performance/wordpress Ver 4.2.0; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; versão da carga de trabalho': u'4.2.0; Client Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, pontuação 3626.11 TPS, medida pela Intel em 16/11/2018.
Instância AWS M5a.24xlarge (AMD), oss-performance/wordpress Ver 4.2.0; Ver 10.2.19-MariaDB-1:10.2.19+maria~bionic; versão da carga de trabalho': u'4.2.0; Client Threads: 200; PHP 7.2.12-1; perfkitbenchmarker_version="v1.12.0-944-g82392cc; Ubuntu 18.04, Kernel Linux 4.15.0-1025-aws, pontuação 1838.48 TPS, medida pela Intel em 16/11/2018.
Para obter mais informações, acesse www.intel.com.br/benchmarks.

5

Fonte: Relatório de pesquisa TSOlogic/Intel: “Novos avanços da Intel e da Amazon Web Services, Economize muito na nuvem (New Advances by Intel, Amazon Web Services, Drive Major Cloud Savings)”.