Google stellt eine neue KI-Rechenzentrumsinfrastruktur mit +/-400 VDC-Stromversorgung und Flüssigkeitskühlung vor, um 1-MW-Racks und steigende thermische Belastungen zu bewältigen.
Bei der OCP EMEA-Gipfel 2025Google veröffentlichte wichtige Ankündigungen zur physischen Infrastruktur moderner Rechenzentren. Die Botschaft war klar: Mit zunehmender KI-Arbeitslast müssen auch die Kapazitäten der Stromversorgung, Kühlung und mechanischen Systeme skaliert werden.
Der unersättliche Energiehunger der KI ist keine Theorie mehr. Google prognostiziert, dass Machine-Learning-Anwendungen bis 2030 mehr als 500 kW pro IT-Rack benötigen werden. Dieser Anstieg ist auf den unermüdlichen Trend zu höheren Rack-Dichten zurückzuführen, bei denen jeder Millimeter mit eng miteinander verbundenen „xPUs“ (GPUs, TPUs, CPUs) vollgestopft ist. Um diesen Anforderungen gerecht zu werden, ist eine grundlegende Umstellung der Stromverteilung erforderlich: Gleichstromlösungen mit höherer Spannung, bei denen die Stromversorgungskomponenten und die Batterie-Notstromversorgung außerhalb des Racks liegen. Und mit dieser Umstellung geht ein neues Schlagwort in der Branche einher.
Stromlieferung
Googles erste große Ankündigung blickte auf ein Jahrzehnt Fortschritt in der Stromversorgung von Rechenzentren zurück. Vor zehn Jahren trieb Google die Umstellung auf 48 VDC in IT-Racks voran und verbesserte damit die Effizienz der Stromverteilung gegenüber dem bisherigen 12-VDC-Standard deutlich. Die Branche reagierte darauf mit einer Skalierung der Rack-Leistung von 10 kW auf 100 kW. Der Übergang von 48 Volt Gleichstrom (VDC) auf die neuen +/-400 VDC ermöglicht die Skalierung von IT-Racks von 100 Kilowatt auf 1 Megawatt.
Das Mt. Diablo-Projekt, eine Zusammenarbeit zwischen Meta, Microsoft und der OCP-Community, zielt darauf ab, elektrische und mechanische Schnittstellen auf 400 VDC zu standardisieren. Diese Spannungswahl ist nicht willkürlich; sie nutzt die robuste Lieferkette für Elektrofahrzeuge und ermöglicht Skaleneffekte, optimierte Fertigung und verbesserte Qualität.
+/-400 VDC Stromversorgung: AC-zu-DC Sidecar Power Rack
Das erste greifbare Ergebnis ist ein AC/DC-Sidecar-Power-Rack, das die Stromversorgungskomponenten vom IT-Rack entkoppelt. Diese Architektur steigert die End-to-End-Effizienz um rund 3 % und gibt das gesamte Rack für Rechenhardware frei. Zukünftig erforschen Google und seine Partner die direkte Hochspannungs-Gleichstromverteilung im gesamten Rechenzentrum, was eine noch höhere Dichte und Effizienz verspricht.
Die thermische Herausforderung
Da der Stromverbrauch von Chips – von 100-W-CPUs bis hin zu Beschleunigern mit über 1,000 W – rasant steigt, ist das Wärmemanagement entscheidend geworden. Die Branche reagierte mit einer Welle von Innovationen, doch die Herausforderung ist klar: Höhere Chipdichten bedeuten einen höheren Kühlbedarf.
Flüssigkeitskühlung hat sich als einzige praktikable Lösung im großen Maßstab herausgestellt. Die thermischen Eigenschaften von Wasser sind unübertroffen: Es kann etwa 4,000-mal mehr Wärme pro Volumeneinheit transportieren als Luft, und seine Wärmeleitfähigkeit ist 30-mal höher. Google hat bereits Flüssigkeitskühlung im Gigawatt-Maßstab eingesetzt und damit in den letzten sieben Jahren über 2,000 TPU Pods mit einer beeindruckenden Verfügbarkeit von 99.999 % unterstützt. Flüssigkeitsgekühlte Server benötigen etwa die Hälfte des Volumens ihrer luftgekühlten Pendants, da sperrige Kühlkörper durch Kühlplatten ersetzt werden. Dadurch konnte Google die Chipdichte verdoppeln und die Größe seiner flüssigkeitsgekühlten TPU v3-Supercomputer im Vergleich zur luftgekühlten TPU v2-Generation vervierfachen.
Projekt Deschutes CDU: 4. Generation im Einsatz, 5. Generation in der Konzeptphase
Von TPU v3 zu TPU v5 und jetzt IronwoodGoogles Ansatz hat sich weiterentwickelt und setzt nun auch In-Row-Kühlmittelverteiler (CDUs) ein. Diese CDUs isolieren den Rack-Flüssigkeitskreislauf vom Anlagenkreislauf und sorgen so für eine kontrollierte, leistungsstarke Kühlumgebung. Project Deschutes, die CDU-Architektur von Google, verfügt über redundante Pumpen und Wärmetauscher und erreicht seit 99.999 eine Verfügbarkeit von 2020 %.
StorageReview hat die Entwicklung der Flüssigkeitskühlung von Anfang an verfolgt und dabei Innovationen wie Coole IT, Untertauchen, JetCool und DUG Nomad.
Beschleunigung der Branchenakzeptanz
Später in diesem Jahr wird Google dazu beitragen Projekt Deschutes CDU OCP teilt Systemdetails, Spezifikationen und Best Practices mit, um die Einführung der Flüssigkeitskühlung im großen Maßstab zu beschleunigen. Der Beitrag umfasst Leitlinien für die Entwicklung verbesserter Kühlleistung, Fertigungsqualität, Zuverlässigkeit, Bereitstellungsgeschwindigkeit, Wartungsfreundlichkeit, betriebliche Best Practices und Einblicke in die Weiterentwicklung der Ökosystem-Lieferkette.
Das rasante Tempo der KI-Hardware-Innovation erfordert, dass sich Rechenzentren auf die nächste Welle der Veränderungen vorbereiten. Der branchenweite Übergang zu +/-400 VDC, katalysiert durch die Mt. Diablo-Spezifikation, stellt einen bedeutenden Fortschritt dar. Google fordert die Community dringend auf, das CDU-Design von Project Deschutes zu übernehmen und seine umfassende Expertise in der Flüssigkeitskühlung zu nutzen, um den Anforderungen der KI-Infrastruktur von morgen gerecht zu werden.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed