Startseite UnternehmenAI NVIDIAs GTC 2025-Highlights: Blackwell-GPUs, DGX-Systeme und AI-Q Framework

NVIDIAs GTC 2025-Highlights: Blackwell-GPUs, DGX-Systeme und AI-Q Framework

by Divyansh Jain

NVIDIA GTC 2025 enthüllte bahnbrechende KI-Fortschritte, darunter Blackwell Ultra GPUs, AI-Q, Mission Control und DGX Spark.

Die GTC-Konferenz von NVIDIA präsentierte zahlreiche Innovationen, die die KI-Entwicklung in verschiedenen Branchen revolutionieren werden, und präsentierte Durchbrüche bei KI-Hardware, -Software und -Partnerschaften. Das Highlight der GTC 2025 war zweifellos die Vorstellung der Rechenzentrums-GPUs und ihrer Roadmap. NVIDIAs bisher leistungsstärkster KI-Beschleuniger in der Produktion ist der B300, der auf der Blackwell Ultra-Architektur basiert. Er bietet eine 1.5-fache Leistungssteigerung gegenüber den bereits branchenführenden Blackwell-GPUs.

Im Vergleich zu den veröffentlichten GPUs von NVIDIA sind die Leistungssteigerungen atemberaubend:

Normen H100 H200 B100 B200 B300
Maximaler Speicher 80 GB HBM3 141 GB HBM3e 192 GB HBM3e 192 GB HBM3e 288 GB HBM3e
Speicherbandbreite 3.35 TB / s 4.8 TB / s 8 TB / s 8 TB / s 8 TB / s
FP4 Tensorkern - - 14 PFLOPS 18 PFLOPS 30 PFLOPS
FP6 Tensorkern - - 7 PFLOPS 9 PFLOPS 15 PFLOPS*
FP8 Tensorkern 3958 TFLOPS (~4 PFLOPS) 3958 TFLOPS (~4 PFLOPS) 7 PFLOPS 9 PFLOPS 15 PFLOPS*
INT 8 Tensorkern 3958 TOPS 3958 TOPS 7 POPS 9 POPS 15 PFLOPS*
FP16/BF16 Tensorkern 1979 TFLOPS (~2 PFLOPS) 1979 TFLOPS (~2 PFLOPS) 3.5 PFLOPS 4.5 PFLOPS 7.5 PFLOPS*
TF32 Tensorkern 989 TFLOPS 989 TFLOPS 1.8 PFLOPS 2.2 PFLOPS 3.3 PFLOPS*
FP32 (Dicht) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informationen unbekannt
FP64 Tensor Core (dicht) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informationen unbekannt
FP64 (Dicht) 34 TFLOPS 34 TFLOPS 30 TFLOPS 40 TFLOPS Informationen unbekannt
Max Leistungsaufnahme 700W 700W 700W 1000W Informationen unbekannt

Hinweis: Mit „*“ gekennzeichnete Werte sind grobe Berechnungen und keine offiziellen Zahlen von NVIDIA

Der Blackwell Ultra B300 führt wie seine Blackwell-Pendants neue Präzisionsformate ein. FP4-Tensor-Cores liefern beeindruckende 30 PFLOPS und FP6/FP8 15 PFLOPS* mehr Leistung im Vergleich zu den aktuellen H200-Modellen. Dies entspricht einer etwa 7.5-fachen Verbesserung im Vergleich zur FP8-Rechenleistung und einer fast vierfachen Verbesserung im Vergleich zur FP4-Leistung.

Als nächstes steht auf NVIDIAs Roadmap die Vera Rubin GPU, die nächstes Jahr erscheinen soll. Vera Rubin soll die 3.3-fache Leistung der Blackwell Ultra liefern und 50 PFLOPS bei dichtem FP4-Computing erreichen – im Vergleich zu den 300 PFLOPS des B15. Die GPU wird mit den Technologien ConnectX-9 und NVLink-6 ausgestattet sein, wodurch sich die Bandbreite im Vergleich zu früheren Generationen verdoppelt. Vera Rubin GPUs werden zudem über HBM4-Speicher verfügen, was eine 1.6-fache Steigerung der Speicherbandbreite ermöglicht. Der Umstieg von Grace- auf Vera-CPUs wird zudem die CPU-GPU-Verbindung deutlich verbessern und Geschwindigkeiten von bis zu 1.8 TB/s erreichen.

NVIDIA hielt sich nicht zurück und kündigte seine Rubin Ultra GPUs an, die voraussichtlich in der zweiten Jahreshälfte 2027 auf den Markt kommen werden. Rubin Ultra GPUs sollen die Leistung von Vera Rubin verdoppeln und erstaunliche 100 PFLOPS dichte FP4-Rechenleistung pro GPU liefern. Rubin Ultra wird außerdem mit 1 TB fortschrittlichem HBM4e-Speicher ausgestattet sein.

NVIDIA DGX Spark

NVIDIA präsentierte seinen DGX Spark, ein System, das unter der Projekt Ziffern Der DGX Spark wurde Anfang des Jahres auf der CES vorgestellt. Er richtet sich an KI-Entwickler, Forscher, Datenwissenschaftler und Studenten und nutzt den neuen GB10 Blackwell-Chip und ist mit 128 GB gemeinsamem Speicher ausgestattet.

NVIDIA gibt an, dass das System außergewöhnliche 1,000 AI TOPS liefert, was die Leistung des Spark auf ein praktisches Niveau bringen würde, das dem der RTX 5070 entspricht. Die Spark-Plattform integriert außerdem eine ConnectX 7 SmartNIC, die den Spark mit zwei 2-GB-Verbindungen ausstattet, um den Datenverkehr zu optimieren. OEM-Partner wie ASUS, Dell, HPE und Lenovo werden in Kürze Markenversionen anbieten. Reservierungen sind bereits möglich, die Auslieferungen beginnen voraussichtlich im Juli.

NVIDIA DGX-Station

NVIDIA stellte außerdem die aktualisierte DGX Station vor, die als ultimativer Desktop-KI-Supercomputer für Unternehmensanwendungen positioniert ist und mit dem GB300 Grace Blackwell Ultra-Chip ausgestattet ist.

Die DGX Station bietet 784 GB einheitlichen Systemspeicher und liefert 20 Petaflops dichte FP4-KI-Leistung. Die direkte Integration von NVIDIA ConnectX 8 SuperNIC ermöglicht eine Netzwerkkonnektivität mit 800 Gbit/s und stellt sicher, dass das Hochleistungsnetzwerk den Anforderungen der umfangreichen Rechenleistung gerecht wird. OEM-Partner wie ASUS, Box, Dell, HPE, Lambda und Supermicro werden voraussichtlich DGX Station-Systeme bauen. Die Verfügbarkeit wird noch in diesem Jahr erwartet.

NVIDIA RTX Pro Blackwell

Der GPU-Zug war noch nicht zu EndeNVIDIA Die RTX Pro Blackwell-Serie wurde vorgestellt, eine umfassende Aktualisierung der professionellen GPU-Produktreihe zur Beschleunigung von KI-, Grafik- und Simulations-Workloads auf allen Plattformen. Diese neue Generation umfasst Desktop-Workstations, mobile Systeme und Server. Das Flaggschiff RTX Pro 6000 Blackwell verfügt über branchenführende 96 GB GPU-Speicher und liefert bis zu 4,000 TOPS KI-Leistung. Diese Weiterentwicklungen ermöglichen Echtzeit-Raytracing, schnelle KI-Inferenz und fortschrittliche Grafik-Workflows, die auf Desktop-Systemen bisher nicht möglich waren.

Die technologischen Innovationen dieser GPUs sind beachtlich, darunter NVIDIAs Streaming Multiprocessor mit 1.5-fach schnellerem Durchsatz, RT-Cores der vierten Generation mit doppelter Leistung im Vergleich zu Vorgängergenerationen und Tensor-Cores der fünften Generation mit neuer FP4-Präzision für KI-Workloads. Weitere Verbesserungen umfassen PCIe Gen 5-Unterstützung für doppelte Bandbreite, DisplayPort 2.1-Kompatibilität für Displaykonfigurationen mit extremer Auflösung und, in der Server Edition, NVIDIA Confidential Computing für sichere KI-Workloads.

Branchenexperten berichten von bemerkenswerten Leistungssteigerungen in realen Anwendungen. Foster + Partners erreichte ein fünfmal schnelleres Raytracing als die RTX A5, während GE HealthCare eine bis zu doppelt so schnelle GPU-Verarbeitungszeit für medizinische Rekonstruktionsalgorithmen feststellte. Der Automobilhersteller Rivian nutzte die neuen GPUs für eine beispiellose VR-Bildqualität bei Designprüfungen, und SoftServe berichtete von einer dreifachen Produktivitätssteigerung bei der Arbeit mit großen KI-Modellen wie Llama 6000-2B. Besonders beeindruckend ist, dass Pixar feststellte, dass 3 % seiner Produktionsaufnahmen nun in den 3.3-GB-Speicher einer einzelnen GPU passen.

Die RTX Pro 6000 Blackwell Server Edition bringt diese Funktionen mit einem passiv gekühlten Design für den 24/7-Betrieb in Rechenzentrumsumgebungen. Diese serverorientierte Variante bietet einen fünfmal höheren Inferenzdurchsatz für große Sprachmodelle, eine siebenmal schnellere Genomsequenzierung, eine 5-fache Beschleunigung der Text-zu-Video-Generierung und eine doppelt so hohe Verbesserung der Inferenz und des Renderings von Empfehlungssystemen im Vergleich zur Hardware der vorherigen Generation. Erstmals unterstützen diese GPUs sowohl vGPU- als auch Multi-Instance-GPU-Technologie (MIG). Dadurch kann jede Karte in bis zu vier vollständig isolierte Instanzen partitioniert werden, was die Ressourcenauslastung für unterschiedliche Workloads maximiert. Desktop-Versionen dieser GPUs kommen im April auf den Markt, Server-Versionen folgen im Mai und OEM-basierte Laptops im Juni.

NVIDIA Photonics

NVIDIA Photonics, eine Innovation, die optische Netzwerke in KI-Rechenzentren revolutionieren soll, rundete die Hardware-Ankündigungen ab. Durch den Ersatz herkömmlicher steckbarer Transceiver durch gemeinsam verpackte optische Engines, die sich im selben Gehäuse wie der Switch-ASIC befinden, minimiert NVIDIA Photonics den Stromverbrauch und optimiert die Datenkonnektivität.

Die neue Photonics-Plattform nutzt die Optimierungen der Photonic Engine von TSMC und wird durch Mikroringmodulatoren, hocheffiziente Laser und abnehmbare Glasfaseranschlüsse ergänzt. Sie bietet bis zu 3.5-mal höhere Effizienz, 10-mal höhere Ausfallsicherheit und 1.3-mal schnellere Bereitstellungsgeschwindigkeiten als herkömmliche Lösungen. NVIDIA erläuterte seinen breiteren Ökosystemansatz und erläuterte, wie wichtig Partnerschaften mit führenden Herstellern fortschrittlicher Verpackungen und optischer Komponenten für diese Leistungssteigerungen sind.

Mit diesen neuen Entwicklungen, NVIDIA präsentierte drei neue Switches mit 200G SerDes in den Switch-Familien Quantum-X und Spectrum-X. Die Quantum-X Infiniband-Reihe umfasst den Quantum 3450-LD mit beeindruckenden 144 800G-Ports bzw. 576 200G-Ports und einer Bandbreite von 115 Tbit/s. Das Spektrum der Spectrum-X Ethernet-Switches reicht vom kompakteren Spectrum SN6810 mit 128 800G-Ports bzw. 512 200G-Ports bis zum hochdichten Spectrum SN6800 mit 512 800G-Ports und 2048 200G-Ports. Alle Switches verfügen über eine Flüssigkeitskühlung für optimale Leistung und Effizienz.

Die NVIDIA Quantum-X Photonics InfiniBand-Switches werden voraussichtlich noch in diesem Jahr verfügbar sein, und die NVIDIA Spectrum-X Photonics Ethernet-Switches werden 2026 bei führenden Infrastruktur- und Systemanbietern erhältlich sein.

Zusammenführung von Hardware und Software mit Nvidia Dynamo

NVIDIAs Ankündigungen umfassten zu gleichen Teilen Software und Hardware. Um die Rechenleistung der neuen Blackwell-GPUs voll auszuschöpfen, stellte NVIDIA Dynamo vor, eine KI-Inferenzsoftware, die speziell für die Bereitstellung von KI-Modellen im großen Maßstab entwickelt wurde.

NVIDIA Dynamo ist eine Open-Source-Inferenzplattform, die die Bereitstellung umfangreicher KI-Modelle in ganzen Rechenzentren optimiert. Dank der einzigartigen verteilten und disaggregierten Architektur von Dynamo kann eine einzelne Abfrage über viele GPUs skaliert werden, wodurch Inferenz-Workloads deutlich beschleunigt werden. Durch die intelligente Aufteilung der Verarbeitungsaufgaben zwischen Eingabe-Token-Berechnung und Ausgabe-Token und die Nutzung der Stärken der NVIDIA NVLink-Verbindung werden bis zu 30-fache Leistungssteigerungen für rechenintensive Modelle wie DeepSeek R1 erreicht.

Bemerkenswerterweise verdoppelt Dynamo sogar den Durchsatz bestehender LLMs wie LLAMA auf Hopper-GPUs ohne zusätzliche Hardware und verdoppelt so effektiv die Token-Generierung und das Umsatzpotenzial für KI-Fabriken. Mit Dynamo macht NVIDIA Hyperscale-Optimierungen für jedermann verfügbar und ermöglicht es jedem, das transformative Potenzial von KI voll auszuschöpfen.

Dynamo ist heute auf GitHub verfügbar und unterstützt beliebte Backends, darunter PyTorch, BLM, SGLang und TensorRT.

Nvidia AI-Q: Die nächste Generation agentenbasierter KI-Systeme

NVIDIA stellte außerdem AI-Q (ausgesprochen „IQ“) vor, eine Blaupause für die nahtlose Anbindung von KI-Agenten an umfangreiche Unternehmensdaten und -tools. Dieses Open-Source-Framework ermöglicht es Agenten, verschiedene Datentypen, darunter Text, Bilder und Videos, abzufragen und zu analysieren und externe Tools wie die Websuche und andere Agenten zu nutzen. 

Kernstück von AI-Q ist das neue NVIDIA AgentIQ Toolkit, eine Open-Source-Softwarebibliothek, die heute auf GitHub veröffentlicht wurde. AgentIQ erleichtert die Verbindung, Profilierung und Optimierung von Multi-Agenten-Systemen und ermöglicht Unternehmen so den Aufbau hochentwickelter digitaler Belegschaften. AgentIQ lässt sich nahtlos in bestehende Multi-Agenten-Frameworks wie CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service und Letta integrieren und ermöglicht Entwicklern die schrittweise oder vollständige Einführung. 

NVIDIA arbeitet außerdem mit führenden Datenspeicheranbietern zusammen, um eine Referenzarchitektur für KI-Datenplattformen zu entwickeln, die NVIDIA NeMo Retriever, AI-Q Blueprint, Blackwell-GPUs, Spectrum X-Netzwerke und Bluefield-DPUs integriert. Dies gewährleistet eine nahezu Echtzeit-Datenverarbeitung und einen schnellen Wissensabruf und stattet KI-Agenten mit wichtigen Business Intelligence-Funktionen aus.

AI-Q steht Entwicklern ab April zum Ausprobieren zur Verfügung.

NVIDIA Mission Control: Orchestrierung der KI-Fabrik

Aufbauend auf seiner umfassenden Softwarestrategie präsentierte NVIDIA Mission Control, die branchenweit einzige einheitliche Softwareplattform für Betrieb und Orchestrierung, die die komplexe Verwaltung von KI-Rechenzentren und -Workloads automatisiert. Während Dynamo die Inferenz optimiert und AI-Q agentenbasierte Systeme ermöglicht, adressiert Mission Control die kritische Infrastrukturebene, die die gesamte KI-Pipeline unterstützt.

Mission Control transformiert die Art und Weise, wie Unternehmen KI-Infrastrukturen bereitstellen und verwalten, und automatisiert das End-to-End-Management, einschließlich Bereitstellung, Überwachung und Fehlerdiagnose. Die Plattform ermöglicht nahtlose Übergänge zwischen Trainings- und Inferenz-Workloads auf Blackwell-basierten Systemen und ermöglicht Unternehmen so die Neuzuweisung von Clusterressourcen bei dynamischen Prioritätenverschiebungen. Durch die Integration der von NVIDIA erworbenen Run:ai-Technologie steigert Mission Control die Infrastrukturauslastung um das bis zu Fünffache und bietet gleichzeitig eine bis zu zehnmal schnellere Jobwiederherstellung als herkömmliche Methoden mit manuellen Eingriffen.

Die Software bietet mehrere betriebliche Vorteile, die für moderne KI-Workloads entscheidend sind, darunter eine vereinfachte Cluster-Einrichtung, nahtlose Workload-Orchestrierung für SUNK-Workflows (Slurm und Kubernetes), energieoptimierte Energieprofile mit vom Entwickler wählbaren Steuerelementen und autonome Job-Recovery-Funktionen. Zu den weiteren Funktionen gehören anpassbare Performance-Dashboards, On-Demand-Health-Checks und die Integration von Gebäudemanagementsystemen für verbesserte Kühlung und Energieverwaltung.

Große Systemhersteller wie Dell, HPE, Lenovo und Supermicro haben angekündigt, NVIDIA GB200 NVL72- und GB300 NVL72-Systeme mit Mission Control anzubieten. Dell wird die Software in seine AI Factory mit NVIDIA integrieren, während HPE sie mit seinen Grace Blackwell Rack-Scale-Systemen anbieten wird. Lenovo plant, seine Hybrid AI Advantage-Lösungen um Mission Control zu erweitern, und Supermicro wird sie in seine Supercluster-Systeme integrieren.

NVIDIA Mission Control ist bereits für die Systeme DGX GB200 und DGX B200 verfügbar. Die Unterstützung für die Systeme DGX GB300, DGX B300 und GB300 NVL72 wird noch in diesem Jahr erwartet. Für Unternehmen, die mit der Verwaltung ihrer KI-Infrastruktur beginnen möchten, hat NVIDIA außerdem angekündigt, dass die Software Base Command Manager bald kostenlos für bis zu acht Beschleuniger pro System verfügbar sein wird, unabhängig von der Clustergröße.

Fazit

NVIDIAs GTC 2025 hat die Weichen für einen bahnbrechenden Sprung in der KI-Technologie gestellt und bahnbrechende Fortschritte in Hardware, Software und Infrastruktur ermöglicht. Von den leistungsstarken B300-GPUs auf Basis der Blackwell Ultra-Architektur bis hin zu den revolutionären Systemen DGX Spark und DGX Station definiert NVIDIA die Möglichkeiten des KI-Computings immer wieder neu. Die Einführung von NVIDIA Photonics, der Dynamo-Inferenzsoftware, den AI-Q-Agenten-Frameworks und der Orchestrierungsplattform Mission Control wird Unternehmen helfen, schneller auf den Markt zu kommen und effizienter zu skalieren und wird NVIDIAs führende Position in diesem Bereich zweifellos weiter festigen.

Doch das ist nur die Spitze des Eisbergs. Bei GTC gibt es noch viel mehr Innovationen und Einblicke zu entdecken. Bleiben Sie dran und achten Sie auf unsere weiteren News-Artikel dieser Woche, in denen wir Ihnen weiterhin die neuesten Ankündigungen und Einblicke in die spannende Zukunft von NVIDIA präsentieren.

Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed