NVIDIA GTC 2025 avslöjade banbrytande AI-framsteg, inklusive Blackwell Ultra GPU:er, AI-Q, Mission Control och DGX Spark.
NVIDIAs GTC-konferens lyfte fram många innovationer som kommer att förändra AI-utvecklingen över flera sektorer och visade upp genombrott inom AI-hårdvara, mjukvara och partnerskap. Pärlan med GTC 2025 var utan tvekan avslöjade datacenter-GPU:erna och deras färdplan. NVIDIAs mest kraftfulla AI-accelerator i produktion hittills är B300, byggd på Blackwell Ultra-arkitekturen. Den ger en 1.5x ökning av prestanda jämfört med den redan branschledande prestandan hos Blackwell GPU:er.
Jämfört med de släppta grafikprocessorerna från NVIDIA är prestandavinsterna svindlande:
Specifikation | H100 | H200 | B100 | B200 | B300 |
---|---|---|---|---|---|
Max minne | 80 GBs HBM3 | 141 GBs HBM3e | 192 GBs HBM3e | 192 GBs HBM3e | 288 GBs HBM3e |
minnesbandbredd | 3.35 TB / s | 4.8 TB/s | 8 TB/s | 8 TB/s | 8 TB/s |
FP4 Tensor Core | - | - | 14 PFLOPS | 18 PFLOPS | 30 PFLOPS |
FP6 Tensor Core | - | - | 7 PFLOPS | 9 PFLOPS | 15 PFLOPS* |
FP8 Tensor Core | 3958 TFLOPS (~4 PFLOPS) | 3958 TFLOPS (~4 PFLOPS) | 7 PFLOPS | 9 PFLOPS | 15 PFLOPS* |
INT 8 Tensor Core | 3958 TOPS | 3958 TOPS | 7 POPS | 9 POPS | 15 PFLOPS* |
FP16/BF16 Tensor Core | 1979 TFLOPS (~2 PFLOPS) | 1979 TFLOPS (~2 PFLOPS) | 3.5 PFLOPS | 4.5 PFLOPS | 7.5 PFLOPS* |
TF32 Tensor Core | 989 TFLOPS | 989 TFLOPS | 1.8 PFLOPS | 2.2 PFLOPS | 3.3 PFLOPS* |
FP32 (Tät) | 67 TFLOPS | 67 TFLOPS | 30 TFLOPS | 40 TFLOPS | Information okänd |
FP64 Tensor Core (Tät) | 67 TFLOPS | 67 TFLOPS | 30 TFLOPS | 40 TFLOPS | Information okänd |
FP64 (Tät) | 34 TFLOPS | 34 TFLOPS | 30 TFLOPS | 40 TFLOPS | Information okänd |
Max Strömförbrukning | 700W | 700W | 700W | 1000W | Information okänd |
Obs: Värden markerade med "*" är grova beräkningar och inte officiella siffror från NVIDIA
Blackwell Ultra B300, liksom sina Blackwell-motsvarigheter, introducerar nya precisionsformat med FP4 Tensor Cores som ger imponerande 30 PFLOPS och FP6/FP8 erbjuder 15 PFLOPS* prestanda, jämfört med nuvarande H200s. Detta är en ungefärlig 7.5x förbättring när man jämför FP8-beräkning med FP4 och en nästan 4x förbättring när man jämför FP8-prestanda.
Nästa på NVIDIAs färdplan är Vera Rubin GPU, som är planerad att släppas nästa år. Vera Rubin förväntas leverera 3.3 gånger prestanda från Blackwell Ultra, och uppnå 50 PFLOPS av tät FP4-beräkning upp från B300:s 15 PFLOPS. Den kommer att åtföljas av ConnectX-9- och NVLink-6-teknologier, vilket fördubblar bandbredden från tidigare generationer. Vera Rubin GPU:er kommer också att ha HBM4-minne, vilket ger en 1.6x ökning av minnesbandbredden. Övergången från Grace- till Vera-processorer kommer också att avsevärt förbättra kopplingen mellan CPU och GPU och uppnå hastigheter på upp till 1.8 TB/s.
NVIDIA höll inte tillbaka och retade sina Rubin Ultra GPU:er, som förväntas lanseras under andra halvan av 2027. Rubin Ultra GPU:er siktar på att fördubbla Vera Rubins prestanda och levererar häpnadsväckande 100 PFLOPS tät FP4-beräkning per GPU. Rubin Ultra kommer också att utrustas med 1TB avancerat HBM4e-minne.
NVIDIA DGX Spark
NVIDIA visade upp sin DGX Spark, ett system som introducerades under Projektsiffror moniker, på CES tidigare i år. Inriktad på AI-utvecklare, forskare, datavetare och studenter, använder DGX Spark det nya GB10 Blackwell-chippet och är konfigurerat med 128 GB enhetligt minne.
NVIDIA hävdar att systemet levererar extraordinära 1,000 5070 AI TOPS, vilket skulle sätta Sparks prestanda på en praktisk nivå som motsvarar RTX 7. Spark-plattformen integrerar även en ConnectX 2 SmartNIC, som utrustar Spark med 200x XNUMXGb länkar för att effektivisera datarörelsen. OEM-partner, inklusive ASUS, Dell, HPE och Lenovo, kommer snart att erbjuda märkesversioner. Bokningarna är redan öppna, med leveranser planerade att börja i juli.
NVIDIA DGX Station
NVIDIA introducerade också den uppdaterade DGX Station, som är positionerad som den ultimata stationära AI-superdatorn för företagsapplikationer och är byggd med GB300 Grace Blackwell Ultra-chippet.
DGX Station erbjuder 784 GB enhetligt systemminne samtidigt som den levererar 20 petaflops med tät FP4 AI-prestanda. Detta integrerar NVIDIAs ConnectX 8 SuperNIC direkt i systemet, vilket möjliggör 800 Gb/s nätverksanslutning, vilket säkerställer att högpresterande nätverk uppfyller kraven på dess betydande beräkningskapacitet. OEM-partners som ASUS, Box, Dell, HPE, Lambda och Supermicro är planerade att bygga DGX Station-system, med tillgänglighet förväntas senare i år.
NVIDIA RTX Pro Blackwell
GPU-såståget stannade inte där... NVIDIA avslöjade sin RTX Pro Blackwell-serie, en omfattande uppdatering av sin professionella GPU-serie designad för att accelerera AI, grafik och simuleringsarbetsbelastningar på alla plattformar. Den här nya generationen sträcker sig över stationära arbetsstationer, mobila system och servrar, med flaggskeppet RTX Pro 6000 Blackwell som har ett branschledande 96 GB GPU-minne och levererar upp till 4,000 XNUMX TOPS AI-prestanda. Dessa framsteg möjliggör strålspårning i realtid, snabb AI-inferens och avancerade grafikarbetsflöden som tidigare var ouppnåeliga på stationära system.
De tekniska innovationerna som är inpackade i dessa GPU:er är betydande, inklusive NVIDIAs Streaming Multiprocessor med 1.5 gånger snabbare genomströmning, fjärde generationens RT-kärnor som ger dubbelt så hög prestanda som tidigare generationer, och femte generationens Tensor-kärnor som stöder ny FP4-precision för AI-arbetsbelastningar. Ytterligare förbättringar inkluderar PCIe Gen 5-stöd för fördubblad bandbredd, DisplayPort 2.1-kompatibilitet för skärmkonfigurationer med extrem upplösning och, i Server Edition, NVIDIA Confidential Computing för säkra AI-arbetsbelastningar.
Branschproffs har rapporterat anmärkningsvärda prestandaförbättringar i verkliga applikationer. Foster + Partners uppnådde 5x snabbare ray-tracing än RTX A6000, medan GE HealthCare fann upp till 2x förbättring av GPU-behandlingstiden för medicinska rekonstruktionsalgoritmer. Biltillverkaren Rivian utnyttjade de nya GPU:erna för oöverträffad visuell VR-kvalitet i designrecensioner, och SoftServe rapporterade en 3x produktivitetsökning när man arbetade med stora AI-modeller som Llama 3.3-70B. Det kanske mest imponerande är att Pixar noterade att 99 % av deras produktionsbilder nu ryms i 96 GB-minnet hos en enda GPU.
RTX Pro 6000 Blackwell Server Edition tar dessa funktioner till datacentermiljöer med en passivt kyld design för 24/7-drift. Den här serverfokuserade varianten levererar 5 gånger högre inferensgenomströmning för stora språkmodeller, 7 gånger snabbare genomisk sekvensering, 3.3 gånger snabbare för text-till-video-generering och 2 gånger förbättringar av slutledning och rendering av rekommenderade system jämfört med föregående generations hårdvara. För första gången möjliggör dessa GPU:er både vGPU och Multi-Instance GPU (MIG)-teknik, vilket gör att varje kort kan partitioneras i upp till fyra helt isolerade instanser, vilket maximerar resursutnyttjandet för olika arbetsbelastningar. Stationära versioner av dessa GPU:er kommer att komma ut på marknaden i april, med servermotsvarigheter som följer i maj och OEM-baserade bärbara datorer i juni.
NVIDIA fotonik
NVIDIA Photonics, en innovation för att transformera optiska nätverk inom AI-datacenter, avrundade hårdvarumeddelandena. Genom att ersätta traditionella inkopplingsbara transceivrar med sampaketerade optiska motorer placerade på samma paket som switchen ASIC, minimerar NVIDIA Photonics strömförbrukningen och effektiviserar dataanslutningen.
Genom att använda TSMC:s fotoniska motoroptimeringar och kompletterat med mikroringmodulatorer, högeffektiva lasrar och löstagbara fiberkontakter, är den nya Photonics-plattformen konstruerad för att leverera upp till 3.5 gånger bättre effektivitet, 10 gånger högre elasticitet och uppnå utbyggnadshastigheter 1.3 gånger snabbare än konventionella lösningar. När NVIDIA demonstrerade sitt bredare ekosystemsynssätt, beskrev NVIDIA hur dess partnerskap med avancerade förpackningar och ledare för tillverkning av optiska komponenter är centrala för att uppnå dessa prestandavinster.
Med dessa nya utvecklingar, NVIDIA visade upp tre nya switchar med 200G SerDes i Quantum-X och Spectrum-X switchfamiljer. Quantum-X Infiniband-sortimentet inkluderar Quantum 3450-LD, som har imponerande 144 portar på 800G eller 576 portar på 200G, vilket ger 115Tb/s bandbredd. På Spectrum-X Ethernet-switchar sträcker sig portföljen från den mer kompakta Spectrum SN6810, som erbjuder 128 portar på 800G eller 512 portar på 200G, till högdensitets Spectrum SN6800, med 512 portar på 800G och 2048 portar på 200G. Alla dessa omkopplare har vätskekylningsteknik för att bibehålla optimal prestanda och effektivitet.
NVIDIA Quantum-X Photonics InfiniBand-switchar förväntas bli tillgängliga senare i år, och NVIDIA Spectrum-X Photonics Ethernet-switchar kommer att finnas tillgängliga 2026 från ledande infrastruktur- och systemleverantörer.
Sammanför hårdvara och mjukvara med Nvidia Dynamo
NVIDIAs tillkännagivanden var lika delar mjukvara och hårdvara. För att till fullo utnyttja beräkningskraften hos de nya Blackwell GPU:erna introducerade NVIDIA Dynamo, en AI-inferensmjukvara som designats speciellt för att betjäna AI-modeller i stor skala.
NVIDIA Dynamo är en öppen källkodsplattform konstruerad för att optimera distributionen av storskaliga AI-modeller över hela datacenter. Dynamos unika distribuerade och disaggregerade arkitektur gör att den kan skala en enda fråga över många GPU:er, vilket dramatiskt accelererar inferensarbetsbelastningar. Genom att intelligent dela upp bearbetningsuppgifter mellan beräkning av indatatoken och utdatatoken och utnyttja styrkorna hos NVIDIAs NVLink-interconnect, uppnår den upp till 30x prestandaförbättringar för resonemangsintensiva modeller som DeepSeek R1.
Anmärkningsvärt nog fördubblar Dynamo till och med genomströmningen av befintliga LLM:er, såsom LLAMA, på Hopper GPU:er utan extra hårdvara, vilket effektivt fördubblar tokengenerering och intäktspotential för AI-fabriker. Med Dynamo ger NVIDIA optimeringar på hyperskalanivå till alla och gör dem tillgängliga, vilket gör att alla kan dra nytta av AI:s transformativa potential.
Dynamo är tillgänglig idag på GitHub och stöder populära backends, inklusive PyTorch, BLM, SGLang och TensorRT.
Nvidia AI-Q: Nästa generation av agenta AI-system
NVIDIA introducerade också AI-Q, uttalat "IQ", en ritning för att koppla AI-agenter sömlöst till storskaliga företagsdata och verktyg. Detta ramverk med öppen källkod gör det möjligt för agenter att fråga och resonera över flera datatyper, inklusive text, bilder och video, och utnyttja externa verktyg som webbsökning och andra agenter.
Kärnan i AI-Q är den nya NVIDIA AgentIQ-verktygslådan, ett mjukvarubibliotek med öppen källkod som släpps idag på GitHub. AgentIQ underlättar anslutning, profilering och optimering av system för flera agenter, vilket gör det möjligt för företag att bygga sofistikerade digitala arbetsstyrkor. AgentIQ integreras sömlöst med befintliga ramverk för flera agenter, inklusive CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service och Letta, vilket gör att utvecklare kan använda det stegvis eller som en komplett lösning.
NVIDIA samarbetar också med ledande datalagringsleverantörer för att skapa en AI-dataplattformsreferensarkitektur som integrerar NVIDIA NeMo Retriever, AI-Q Blueprint, Blackwell GPU:er, Spectrum X-nätverk och Bluefield DPU:er. För att säkerställa nästan realtidsdatabehandling och snabb kunskapsinhämtning, vilket ger AI-agenter viktig affärsintelligens.
AI-Q kommer att vara tillgängligt för utvecklare att uppleva från och med april.
NVIDIA Mission Control: Orkestera AI-fabriken
Med utgångspunkt i sin omfattande programvarustrategi avtäckte NVIDIA Mission Control, branschens enda enhetliga programvaruplattform för operationer och orkestrering utformad för att automatisera komplex hantering av AI-datacenter och arbetsbelastningar. Medan Dynamo optimerar inferens och AI-Q möjliggör agentsystem, adresserar Mission Control det kritiska infrastrukturskiktet som ligger till grund för hela AI-pipelinen.
Mission Control förändrar hur företag distribuerar och hanterar AI-infrastruktur, och automatiserar end-to-end-hantering, inklusive provisionering, övervakning och feldiagnos. Plattformen möjliggör sömlösa övergångar mellan utbildnings- och slutledningsarbetsbelastningar på Blackwell-baserade system, vilket gör det möjligt för organisationer att omfördela klusterresurser när prioriteringarna förändras dynamiskt. Genom att införliva NVIDIAs förvärvade Run:ai-teknik ökar Mission Control utnyttjandet av infrastrukturen med upp till 5 gånger samtidigt som den levererar upp till 10 gånger snabbare jobbåterställning än traditionella metoder som kräver manuellt ingrepp.
Programvaran ger flera operativa fördelar som är avgörande för moderna AI-arbetsbelastningar, inklusive förenklad klusterinställning, sömlös arbetsbelastningsorkestrering för SUNK (Slurm och Kubernetes) arbetsflöden, energioptimerade kraftprofiler med utvecklare valbara kontroller och autonoma jobbåterställningsfunktioner. Ytterligare funktioner inkluderar anpassningsbara prestandainstrumentpaneler, hälsokontroller på begäran och integration av byggnadsledningssystem för förbättrad kylning och energihantering.
Stora systemtillverkare, inklusive Dell, HPE, Lenovo och Supermicro, har meddelat planer på att erbjuda NVIDIA GB200 NVL72 och GB300 NVL72-system utrustade med Mission Control. Dell kommer att införliva programvaran i sin AI Factory med NVIDIA, medan HPE kommer att erbjuda den med sina Grace Blackwell rack-skala system. Lenovo planerar att uppdatera sina Hybrid AI Advantage-lösningar för att inkludera Mission Control, och Supermicro kommer att integrera det i sina Supercluster-system.
NVIDIA Mission Control är redan tillgänglig för DGX GB200- och DGX B200-system, med stöd för DGX GB300, DGX B300 och GB300 NVL72-system som förväntas senare i år. För organisationer som vill börja hantera AI-infrastruktur har NVIDIA också meddelat att programvaran Base Command Manager snart kommer att vara gratis för upp till åtta acceleratorer per system, oavsett klusterstorlek.
Slutsats
NVIDIAs GTC 2025 har lagt scenen för ett transformativt steg inom AI-teknik, och avslöjar banbrytande framsteg inom hårdvara, mjukvara och infrastruktur. Från de kraftfulla B300 GPU:erna byggda på Blackwell Ultra-arkitekturen till de revolutionerande DGX Spark- och DGX Station-systemen, fortsätter NVIDIA att omdefiniera vad som är möjligt inom AI-datorer. Introduktionen av NVIDIA Photonics, Dynamo-inferensmjukvara, AI-Q-agentramverk och Mission Control-orkestreringsplattform kommer att hjälpa företag att komma ut på marknaden snabbare och skala mer effektivt och går utan tvekan längre för att cementera NVIDIA som ledande inom detta område.
Ändå är detta bara toppen av isberget. Det finns mycket mer innovation och insikt att utforska på GTC. Håll utkik och håll utkik efter våra andra nyhetsartiklar den här veckan när vi fortsätter att ge dig de senaste tillkännagivandena och djupdykning i NVIDIAs spännande framtid.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde