Microsoft Azure hat erfolgreich Server mit NVIDIA GB200-KI-Prozessoren bereitgestellt und aktiviert und damit einen wichtigen Meilenstein in der Infrastruktur für künstliche Intelligenz erreicht.
Microsoft Azure ist der erste Cloud-Dienstleister, der Server mit NVIDIA GB200-KI-Prozessoren bereitstellt und aktiviert. In einem Beitrag auf XAzure stellte seine maßgeschneiderten NVIDIA GB200 AI-Server-Racks vor und fügte hinzu: „Wir optimieren auf jeder Ebene, um die weltweit fortschrittlichsten KI-Modelle mit Strom zu versorgen, indem wir Infiniband-Netzwerke und eine innovative Flüssigkeitskühlung mit geschlossenem Kreislauf nutzen.“
Die Implementierung von Microsoft umfasst individuell gestaltete Server-Racks, in denen jeweils etwa 32 B200-Prozessoren untergebracht sind. Azure hat ein fortschrittliches, geschlossenes Flüssigkeitskühlsystem entwickelt, um die enorme Wärmeentwicklung dieser Hochleistungseinheiten zu bewältigen. Dieses Setup zeigt Microsofts Engagement, die Grenzen des KI-Computings zu erweitern, und seine Expertise im Wärmemanagement für Hardware der nächsten Generation.
Die Blackwell B200 GPU stellt eine wesentliche Verbesserung der KI-Verarbeitungsfunktionen dar. Im Vergleich zu seinem Vorgänger, dem H100, bietet der B200:
- 2.5-mal höhere Leistung für FP8/INT8-Operationen (4,500 TFLOPS/TOPS vs. 1,980 TOPS)
- 9 PFLOPS Leistung bei Verwendung des FP4-Datenformats
Diese Fortschritte werden das Trainieren komplexer großer Sprachmodelle (LLMs) ermöglichen und möglicherweise KI-Anwendungen in zahlreichen Branchen revolutionieren.
Microsoft-CEO Satya Nadella betonte in einem weiteren Beitrag auf X die laufende Zusammenarbeit des Unternehmens mit NVIDIA und erklärte: „Unsere langjährige Partnerschaft mit NVIDIA und unsere tiefgreifende Innovation sind weiterhin branchenführend und ermöglichen die anspruchsvollsten KI-Workloads.“
Während die aktuelle Bereitstellung offenbar zu Testzwecken erfolgt, signalisiert sie doch, dass Microsoft bereit ist, bald Blackwell-basierte Server für kommerzielle Workloads anzubieten. Weitere Einzelheiten zum Blackwell-Serverangebot werden auf Microsofts kommendem Konferenz entzünden in Chicago, geplant für den 18. bis 22. November 2024.
Als erster Cloud-Anbieter, der NVIDIA Blackwell-Systeme in Betrieb nimmt, hat sich Microsoft Azure als führender Anbieter von KI-Infrastrukturen positioniert. Dieser Schritt wird wahrscheinlich die Entwicklung fortschrittlicherer KI-Modelle und -Anwendungen beschleunigen und möglicherweise verschiedene Sektoren verändern, die auf Cloud-basierte KI-Dienste angewiesen sind.
Die erfolgreiche Implementierung dieser hochdichten, leistungsstarken Computersysteme setzt auch einen neuen Standard für Rechenzentrumsdesign und Kühltechnologien. Da immer mehr Anbieter ähnliche Technologien einsetzen, könnten wir einen Wandel beim Bau und Betrieb von Rechenzentren erleben, um den wachsenden Anforderungen von KI-Workloads gerecht zu werden.
Die Bereitstellung von Blackwell-Serverinstallationen wird voraussichtlich Ende 2024 oder Anfang 2025 ansteigen und damit die Bühne für eine weitere Entwicklung in der KI-Landschaft bereiten. Microsofts frühzeitige Einführung könnte dem Unternehmen einen Wettbewerbsvorteil bei der Anwerbung von KI-Forschern und Unternehmen verschaffen, die die fortschrittlichsten verfügbaren Computerressourcen nutzen möchten.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed