Google stellt die Ironwood TPU vor, seinen bisher leistungsstärksten KI-Beschleuniger, der massive Verbesserungen bei Inferenzleistung und Effizienz bietet.
Letzte Woche enthüllte Google seinen neuesten maßgeschneiderten KI-Beschleuniger, die Ironwood TPU, und präsentierte eine deutliche Leistungssteigerung für die immer anspruchsvollere Welt der KI. Ironwood wurde auf der Google Cloud Next 25 angekündigt und ist die siebte Generation der TPUs von Google. Sie wurde speziell für die modernen KI-Workloads, insbesondere im Bereich der Inferenz, entwickelt.
TPU verstehen
Bevor wir uns mit Ironwood befassen, ist es hilfreich zu verstehen, was TPUs sind. Tensor Processing Units sind spezielle Chips, die von Google speziell zur Beschleunigung von Machine-Learning-Workloads entwickelt wurden. Im Gegensatz zu Allzweck-CPUs oder sogar GPUs, die für die parallele Verarbeitung, zunächst für Grafiken, optimiert sind, sind TPUs für die Matrix- und Tensoroperationen im Kern neuronaler Netzwerke optimiert. In der Vergangenheit hat Google verschiedene TPU-Versionen angeboten und dabei häufig zwischen der „e“-Serie (mit Fokus auf Effizienz und Inferenz, Ausführung vortrainierter Modelle) und der „p“-Serie (mit Fokus auf Rohleistung für das Training großer Modelle) unterschieden.
Wir stellen vor: Ironwood
Die neue Ironwood TPU ist Googles bislang ambitioniertester KI-Beschleuniger. Es handelt sich um die erste TPU des Unternehmens, die speziell für die Anforderungen inferenzintensiver „Reasoning-Modelle“ entwickelt wurde. Ironwood bietet im Vergleich zu seinen Vorgängern erhebliche Verbesserungen in allen wichtigen Leistungskennzahlen, darunter:
TPU v5e | TPU-V5P | TPU v6e | TPU v7e | |
BF16 Compute | 197 TFLOPs | 459 TFLOPs | 918 TFLOPs | 2.3 PFLOPs* |
INT8/FP8-Rechenleistung | 394 TOPs/TFLOPs* | 918 TOPs/TFLOPs* | 1836 TOPs/TFLOPs | 4.6 POPs/PFLOPs |
HBM-Bandbreite | 0.8 TB / s | 2.8 TB / s | 1.6 TB / s | 7.4 TB / s |
HBM-Kapazität | 16 GB | 95 GB | 32 GB | 192 GB |
Inter-Chip-Interconnect-Bandbreite (pro Link) | 400 Gbps | 800 Gbps | 800 Gbps | 1200 Gbps |
Verbindungstopologie | 2D-Torus | 3D-Torus | 2D-Torus | 3D-Torus |
TPU-Pod-Größe | 256 | 8960 | 256 | 9216 |
Ersatzkerne | Nein | Nein | Ja | Ja |
Hinweis: Mit „*“ gekennzeichnete Zahlen sind inoffizielle berechnete Zahlen.
Die wichtigsten Merkmale von Ironwood sind:
- Enorme Rechenleistung: Jeder Chip liefert 4.6 PetaFLOPS FP8-Leistung und liegt damit in der gleichen Leistungsklasse wie NVIDIAs Blackwell B200
- Erhöhte Speicherkapazität: 192 GB High Bandwidth Memory (HBM) pro Chip
- Deutlich verbesserte Speicherbandbreite: 7.37 TB/s pro Chip, 4.5-mal mehr als Trillium, ermöglicht schnelleren Datenzugriff für speicherbeschränkte KI-Inferenz
- Verbesserte Verbindungsmöglichkeiten: 1.2 TBps bidirektionale Bandbreite, eine 1.5-fache Verbesserung gegenüber Trillium, die eine effizientere Kommunikation zwischen Chips ermöglicht
Spekulation: Ist Ironwood das fehlende v6p?
Interessanterweise scheint Google die erwartete TPU-v6p-Generation übersprungen und direkt mit der Veröffentlichung des v7e Ironwood begonnen zu haben. Dies deutet darauf hin, dass dieser Chip ursprünglich als v6p-Trainingschip gedacht war. Aufgrund der schnell wachsenden Modellgrößen und der Notwendigkeit, mit Angeboten wie NVIDIAs GB200 NVL72 zu konkurrieren, positionierte Google ihn jedoch wahrscheinlich als v7e Ironwood neu. Die massive Größe des 9216 TPU-Pods und die Verwendung von 3D-Torus-Verbindungen in einem Chip der sogenannten „e“-Serie (typischerweise die günstigere Variante) stützen diese Theorie nachdrücklich.
Die Straße entlang
Google hat angekündigt, dass Ironwood TPUs noch in diesem Jahr über Google Cloud verfügbar sein werden. Die Technologie ist bereits in einigen der fortschrittlichsten KI-Systeme von Google im Einsatz, darunter Gemini 2.5 und AlphaFold.
Sobald diese leistungsstarken neuen Beschleuniger für Entwickler und Forscher verfügbar sind, werden sie wahrscheinlich Durchbrüche bei den KI-Fähigkeiten ermöglichen, insbesondere bei groß angelegten Inferenz-Workloads, die sowohl enorme Rechenleistung als auch ausgefeilte Denkfähigkeiten erfordern.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed