top of page

AWS Graviton4 vs. GCP Axion

  • Autorenbild: Rahul Bapat
    Rahul Bapat
  • vor 4 Tagen
  • 3 Min. Lesezeit

Dieser Blogbeitrag vergleicht die Leistung zweier führender Anbieter: AWS Graviton4 (basierend auf AWS r8g-Instanzen) und Google Axion (basierend auf GCP Axion-Instanzen). Beide basieren auf der fortschrittlichen Arm Neoverse-V2-Architektur. Wir untersuchen ihre Performance anhand von Valkey 8.0.1, einem gängigen In-Memory-Datenspeicher.


Die Konkurrenten: AWS Graviton4 und Google Axion

AWS Graviton und Google Axion repräsentieren die neueste Generation ARM-basierter Serverprozessoren von Amazon und Google. Beide nutzen die Arm Neoverse-V2 CPU-Architektur, die speziell für Cloud Computing, maschinelles Lernen und High-Performance Computing (HPC) entwickelt wurde. Diese maßgeschneiderten Chips bieten im Vergleich zu herkömmlichen x86-basierten Alternativen eine überlegene Leistung und Energieeffizienz.


Der Benchmark: Valkey 8.0.1

Für einen aussagekräftigen Vergleich wählten wir Valkey 8.0.1, einen leistungsstarken Open-Source-In-Memory-Datenspeicher. Valkey ist ein Fork von Redis und wird häufig für Caching, Sitzungsverwaltung und Echtzeitanalysen eingesetzt. Dadurch eignet es sich hervorragend, um die Verarbeitungs- und Speicherkapazität dieser Instanzen zu testen. Unser Benchmark-Setup wurde so konfiguriert, dass ein fairer Vergleich gewährleistet ist.


Valkey-Serverkerne: Der Valkey-Server war auf die Kerne 2 bis 7 festgelegt.


Anfrageparameter: Jedes Experiment umfasste 100 Millionen parallele Anfragen, 256 Clients und eine Nutzlastgröße von 1024 KiB.


Leistungskennzahlen: Wir konzentrierten uns auf zwei Schlüsselkennzahlen: Anfragen pro Sekunde (RPS) für den Durchsatz und P99-Latenz (das 99. Perzentil) für die Reaktionsfähigkeit.


Experiment 1: Netzwerkleistung

Im ersten Experiment wurde die Leistung getestet, wenn die Valkey-Client- und Serverinstanzen auf separaten Hosts innerhalb desselben Clusternetzwerks liefen. Dieses Szenario verdeutlicht die Effizienz der zugrundeliegenden Netzwerkvirtualisierung und -verbindungen, die für viele verteilte Workloads entscheidend sind.


IRQ-Pinning: Für diesen Test haben wir IRQ-Pinning auf den Kernen 0 und 1 verwendet. Dadurch werden bestimmte CPU-Kerne für die Bearbeitung von Netzwerk-Interrupts reserviert, wodurch verhindert wird, dass diese die Arbeitslast des Valkey-Servers beeinträchtigen und eine stabilere und genauere Messung der Netzwerkleistung gewährleistet wird.


Verteilte Anwendung




AWS r8g Instanzergebnisse

GCP Axion-Instanzergebnisse

SET RPS

925.860

790.020


P99-Latenz einstellen

0,431 ms


0,655 ms


RPS ERHALTEN

941.802


870.920


P99-Latenz abrufen

0,415 ms


0,543 ms


In diesem netzwerkintensiven Test übertrafen die AWS r8g-Instanzen GCP Axion sowohl bei SET- als auch bei GET-Operationen durchweg, mit höherem Durchsatz und geringerer P99-Latenz. Dies deutet darauf hin, dass die Netzwerkfunktionen des AWS Nitro Systems, die eng mit dem Graviton4-Prozessor integriert sind, einen deutlichen Vorteil für verteilte, netzwerksensitive Anwendungen bieten.


Experiment 2: Leistung auf demselben Host

Im zweiten Experiment wurde die reine Rechenleistung bewertet, indem sowohl der Valkey-Client als auch der Server auf demselben Host ausgeführt wurden. Dieser Test minimiert den Netzwerk-Overhead und konzentriert sich auf die CPU- und Speicherleistung.


Anwendung auf demselben Host




AWS r8g-Instanzergebnisse:

GCP Axion-Instanzergebnisse:

SET RPS

1.024.894

894.262

P99-Latenz einstellen

0,407 ms

0,367 ms

RPS ERHALTEN

1.060.186

942.720

P99-Latenz abrufen

0,359 ms

0,303 ms

Die Ergebnisse zeigen hier ein differenzierteres Bild. Während AWS r8g-Instanzen erneut einen höheren Gesamtdurchsatz (RPS) erzielten, wiesen die GCP Axion-Instanzen eine geringere P99-Latenz sowohl für SET- als auch für GET-Operationen auf. Dies deutet darauf hin, dass die Architektur von AWS zwar auf maximalen Durchsatz optimiert sein mag, Googles Design jedoch die niedrige Latenz priorisiert – ein zentrales Merkmal des Befehlsausführungsmodells von Valkey.


Schlussfolgerung und Analyse

Die Benchmark-Ergebnisse zeichnen ein klares Bild: Bei dieser spezifischen Arbeitslast sind die AWS Graviton4-basierten r8g-Instanzen hinsichtlich des Rohdurchsatzes führend, während die Google Axion-Instanzen sich durch geringe Latenz auszeichnen.


AWS r8g (Graviton4): Die höhere RPS in beiden Experimenten deutet darauf hin, dass die AWS-Implementierung stark für parallele und hochdurchsatzfähige Workloads optimiert ist, wahrscheinlich aufgrund einer engen Integration mit dem AWS Nitro System.


GCP Axion: Die niedrigere P99-Latenz im Test auf demselben Host ist ein aussagekräftiger Indikator. Sie deutet darauf hin, dass Googles Axion-Prozessor über ein effizienteres Kerndesign oder eine optimierte Cache-Struktur verfügt, was insbesondere bei Workloads mit hohen Anforderungen an niedrige Latenzzeiten von Vorteil ist.



 
 
 

Kommentare


bottom of page