AWS Graviton4 vs. GCP Axion
- Rahul Bapat

- vor 4 Tagen
- 3 Min. Lesezeit
Dieser Blogbeitrag vergleicht die Leistung zweier führender Anbieter: AWS Graviton4 (basierend auf AWS r8g-Instanzen) und Google Axion (basierend auf GCP Axion-Instanzen). Beide basieren auf der fortschrittlichen Arm Neoverse-V2-Architektur. Wir untersuchen ihre Performance anhand von Valkey 8.0.1, einem gängigen In-Memory-Datenspeicher.
Die Konkurrenten: AWS Graviton4 und Google Axion
AWS Graviton und Google Axion repräsentieren die neueste Generation ARM-basierter Serverprozessoren von Amazon und Google. Beide nutzen die Arm Neoverse-V2 CPU-Architektur, die speziell für Cloud Computing, maschinelles Lernen und High-Performance Computing (HPC) entwickelt wurde. Diese maßgeschneiderten Chips bieten im Vergleich zu herkömmlichen x86-basierten Alternativen eine überlegene Leistung und Energieeffizienz.
Der Benchmark: Valkey 8.0.1
Für einen aussagekräftigen Vergleich wählten wir Valkey 8.0.1, einen leistungsstarken Open-Source-In-Memory-Datenspeicher. Valkey ist ein Fork von Redis und wird häufig für Caching, Sitzungsverwaltung und Echtzeitanalysen eingesetzt. Dadurch eignet es sich hervorragend, um die Verarbeitungs- und Speicherkapazität dieser Instanzen zu testen. Unser Benchmark-Setup wurde so konfiguriert, dass ein fairer Vergleich gewährleistet ist.
Valkey-Serverkerne: Der Valkey-Server war auf die Kerne 2 bis 7 festgelegt.
Anfrageparameter: Jedes Experiment umfasste 100 Millionen parallele Anfragen, 256 Clients und eine Nutzlastgröße von 1024 KiB.
Leistungskennzahlen: Wir konzentrierten uns auf zwei Schlüsselkennzahlen: Anfragen pro Sekunde (RPS) für den Durchsatz und P99-Latenz (das 99. Perzentil) für die Reaktionsfähigkeit.
Experiment 1: Netzwerkleistung
Im ersten Experiment wurde die Leistung getestet, wenn die Valkey-Client- und Serverinstanzen auf separaten Hosts innerhalb desselben Clusternetzwerks liefen. Dieses Szenario verdeutlicht die Effizienz der zugrundeliegenden Netzwerkvirtualisierung und -verbindungen, die für viele verteilte Workloads entscheidend sind.
IRQ-Pinning: Für diesen Test haben wir IRQ-Pinning auf den Kernen 0 und 1 verwendet. Dadurch werden bestimmte CPU-Kerne für die Bearbeitung von Netzwerk-Interrupts reserviert, wodurch verhindert wird, dass diese die Arbeitslast des Valkey-Servers beeinträchtigen und eine stabilere und genauere Messung der Netzwerkleistung gewährleistet wird.
Verteilte Anwendung | ||
AWS r8g Instanzergebnisse | GCP Axion-Instanzergebnisse | |
SET RPS | 925.860 | 790.020 |
P99-Latenz einstellen | 0,431 ms | 0,655 ms |
RPS ERHALTEN | 941.802 | 870.920 |
P99-Latenz abrufen | 0,415 ms | 0,543 ms |
In diesem netzwerkintensiven Test übertrafen die AWS r8g-Instanzen GCP Axion sowohl bei SET- als auch bei GET-Operationen durchweg, mit höherem Durchsatz und geringerer P99-Latenz. Dies deutet darauf hin, dass die Netzwerkfunktionen des AWS Nitro Systems, die eng mit dem Graviton4-Prozessor integriert sind, einen deutlichen Vorteil für verteilte, netzwerksensitive Anwendungen bieten.
Experiment 2: Leistung auf demselben Host
Im zweiten Experiment wurde die reine Rechenleistung bewertet, indem sowohl der Valkey-Client als auch der Server auf demselben Host ausgeführt wurden. Dieser Test minimiert den Netzwerk-Overhead und konzentriert sich auf die CPU- und Speicherleistung.
Anwendung auf demselben Host | ||
AWS r8g-Instanzergebnisse: | GCP Axion-Instanzergebnisse: | |
SET RPS | 1.024.894 | 894.262 |
P99-Latenz einstellen | 0,407 ms | 0,367 ms |
RPS ERHALTEN | 1.060.186 | 942.720 |
P99-Latenz abrufen | 0,359 ms | 0,303 ms |
Die Ergebnisse zeigen hier ein differenzierteres Bild. Während AWS r8g-Instanzen erneut einen höheren Gesamtdurchsatz (RPS) erzielten, wiesen die GCP Axion-Instanzen eine geringere P99-Latenz sowohl für SET- als auch für GET-Operationen auf. Dies deutet darauf hin, dass die Architektur von AWS zwar auf maximalen Durchsatz optimiert sein mag, Googles Design jedoch die niedrige Latenz priorisiert – ein zentrales Merkmal des Befehlsausführungsmodells von Valkey.
Schlussfolgerung und Analyse
Die Benchmark-Ergebnisse zeichnen ein klares Bild: Bei dieser spezifischen Arbeitslast sind die AWS Graviton4-basierten r8g-Instanzen hinsichtlich des Rohdurchsatzes führend, während die Google Axion-Instanzen sich durch geringe Latenz auszeichnen.
AWS r8g (Graviton4): Die höhere RPS in beiden Experimenten deutet darauf hin, dass die AWS-Implementierung stark für parallele und hochdurchsatzfähige Workloads optimiert ist, wahrscheinlich aufgrund einer engen Integration mit dem AWS Nitro System.
GCP Axion: Die niedrigere P99-Latenz im Test auf demselben Host ist ein aussagekräftiger Indikator. Sie deutet darauf hin, dass Googles Axion-Prozessor über ein effizienteres Kerndesign oder eine optimierte Cache-Struktur verfügt, was insbesondere bei Workloads mit hohen Anforderungen an niedrige Latenzzeiten von Vorteil ist.





Kommentare