Obtenha desempenho mais rápido do Python com instâncias AWS C5 com processadores escaláveis Intel® Xeon® e Granulate

Python

  • Execute scripts Python 9% mais rápido adicionando Granulate às instâncias AWS c5.large com processadores escaláveis Intel Xeon em comparação com instâncias c5.large sem Granulate.

  • Execute scripts Python 34% mais rápido selecionando instâncias AWS c5.large com processadores escaláveis Intel Xeon com instâncias Granulate em comparação com instâncias c5a.large com processadores AMD EPYC.

author-image

Por

O uso de processadores escaláveis Intel Xeon com otimização contínua em tempo real de granulate reduz o tempo de execução em comparação com as instâncias C5a com processadores AMD EPYC

O tipo de instância que você usa para suportar seus casos de uso do Python faz diferença — ao executar scripts mais rapidamente, seus usuários terão desempenho melhor. Para testar o desempenho do Python que vários tipos de instância de nuvem do Amazon Web Services (AWS) EC2 podem fornecer, usamos o parâmetro de referência PyPerformance.

O PyPerformance mostra o desempenho do Python, detecta regressão de desempenho em implementações do Python e valida as alterações de otimização.

Primeiro, testamos instâncias C5 com processadores escaláveis Intel Xeon de duas maneiras: com e sem Otimização contínua em tempo real de granulate (Granulate). A Granulate oferece “otimização de carga de trabalho contínua e autônoma”, que, de acordo com a Granulate, “melhora o desempenho do aplicativo e reduz os custos em até 63%.”1 Em seguida, comparamos a instância C5 com Granulate a uma instância C5a usando processadores AMD EPYC.

A instância C5 com Granulate superou sua contraparte C5 sem Granulate e a instância C5a com processadores AMD EPYC. Esses resultados sugerem que as empresas podem desfrutar de desempenho mais rápido para implementações do Python escolhendo instâncias C5 habilitadas por processadores escaláveis Intel Xeon com Granulate.

PyPerformance aprimorado pela Granulate

Como mostra a Figura 1, em instâncias c5.large, o uso de Granulate melhorou a velocidade de execução do parâmetro de referência PyPerformance em 9%.

Figura 1. Tempo relativo de execução do PyPerformance de instâncias c5.large, com processadores escaláveis Intel Xeon, com e sem Granulate. Quanto mais alto, melhor.

Uma instância C5 com Granulate superou uma instância C5a baseada no processador AMD EPYC

Como mostra a Figura 2, a instância c5.large habilitada por processadores escaláveis Intel® Xeon® com Granulate proporcionou desempenho 34% melhor do que a instância c5a.large baseada em processadores AMD EPYC.

Figura 2. Tempo de execução relativo do PyPerformance de uma instância c5.large com processadores escaláveis Intel Xeon e Granulate em comparação com uma instância c5a.large com processadores AMD EPYC. Quanto mais alto, melhor.

Conclusão

Para otimizar as implementações do Python da sua organização, é fundamental escolher instâncias de nuvem que reduzem os tempos de execução. Em testes, uma instância AWS C5 com processadores escaláveis Intel Xeon com otimização contínua em tempo real do Granulate superou a mesma instância sem Granulate e uma instância AWS C5a baseada em processadores AMD EPYC. A adição de Granulate acelerou o tempo de execução em 9% na instância C5 que testamos, e a instância C5 habilitada para Granulate foi 34% mais rápida do que a instância C5a que testamos.

Saiba mais

Para começar a executar suas cargas de trabalho do Python em instâncias Amazon C5 com processadores escaláveis Intel Xeon com Granulate, acesse

https://aws.amazon.com/ec2/instance-types/c5/.

1. Granulate, https://granulate.io/.

Testes realizados pela Intel em outubro de 2021. Todos os testes no AWS us-east-2 com 4.14.248-189.473.amzn2.x86_64, 2 vCPUs, 4GB RAM, armazenamento EBS-GP2 de 20 GB com 100 IOPS, rede BW de 10 Gbps, Docker v. 20.10.7, Docker Image Python v. 3.7 e PyPerformance versão 1.0.2. Detalhes da instância: c5.large: Intel Xeon 8124M @3.00Ghz; c5.large +G.io: Intel Xeon 8124M @3.00Ghz, agente Granulate v. 2.2.0; c5a.large: AMD EPYC 7832.