Casa ImpresaAI Punti salienti del GTC 2025 di NVIDIA: GPU Blackwell, sistemi DGX e framework AI-Q

Punti salienti del GTC 2025 di NVIDIA: GPU Blackwell, sistemi DGX e framework AI-Q

by Divyansh Jain

NVIDIA GTC 2025 ha svelato innovazioni rivoluzionarie nel campo dell'intelligenza artificiale, tra cui le GPU Blackwell Ultra, AI-Q, Mission Control e DGX Spark.

La conferenza GTC di NVIDIA ha evidenziato numerose innovazioni destinate a trasformare lo sviluppo dell'IA in più settori e ha mostrato innovazioni nell'hardware, nel software e nelle partnership dell'IA. La gemma del GTC 2025 è stata senza dubbio la presentazione delle GPU per data center e della loro roadmap. L'acceleratore AI più potente di NVIDIA in produzione fino ad oggi è il B300, basato sull'architettura Blackwell Ultra. Presenta un aumento di 1.5 volte delle prestazioni rispetto alle prestazioni già leader del settore delle GPU Blackwell.

Rispetto alle GPU rilasciate da NVIDIA, i guadagni in termini di prestazioni sono sorprendenti:

Specificazione H100 H200 B100 B200 B300
Memoria massima 80 GB HBM3 141 GB HBM3e 192 GB HBM3e 192 GB HBM3e 288 GB HBM3e
Banda di memoria 3.35 TB / s 4.8 TB/s 8 TB/s 8 TB/s 8 TB/s
Nucleo tensoriale FP4 - - 14 PFLOP 18 PFLOP 30 PFLOP
Nucleo tensoriale FP6 - - 7 PFLOP 9 PFLOP 15 PFLOP*
Nucleo tensoriale FP8 3958 TFLOPS (~4 PFLOPS) 3958 TFLOPS (~4 PFLOPS) 7 PFLOP 9 PFLOP 15 PFLOP*
INT 8 Nucleo tensoriale 3958 TOP 3958 TOP 7 POP 9 POP 15 PFLOP*
Nucleo tensoriale FP16/BF16 1979 TFLOPS (~2 PFLOPS) 1979 TFLOPS (~2 PFLOPS) 3.5 PFLOP 4.5 PFLOP 7.5 PFLOP*
Nucleo Tensoriale TF32 989 TFLOPS 989 TFLOPS 1.8 PFLOP 2.2 PFLOP 3.3 PFLOP*
FP32 (Denso) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informazioni Sconosciute
Nucleo tensoriale FP64 (denso) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informazioni Sconosciute
FP64 (Denso) 34 TFLOPS 34 TFLOPS 30 TFLOPS 40 TFLOPS Informazioni Sconosciute
Carico stimato 700W 700W 700W 1000W Informazioni Sconosciute

Nota: i valori contrassegnati con "*" sono calcoli approssimativi e non numeri ufficiali di NVIDIA

Blackwell Ultra B300, come le sue controparti Blackwell, introduce nuovi formati di precisione con FP4 Tensor Core che offrono un impressionante 30 PFLOPS e FP6/FP8 che offrono 15 PFLOPS* di prestazioni, rispetto agli attuali H200. Si tratta di un miglioramento approssimativo di 7.5 volte se si confronta il calcolo FP8 con FP4 e di quasi 4 volte se si confrontano le prestazioni FP8.

Il prossimo sulla roadmap di NVIDIA è la GPU Vera Rubin, la cui uscita è prevista per il prossimo anno. Si prevede che Vera Rubin fornirà 3.3 volte le prestazioni di Blackwell Ultra, raggiungendo 50 PFLOPS di elaborazione FP4 densa rispetto ai 300 PFLOPS di B15. Sarà accompagnata dalle tecnologie ConnectX-9 e NVLink-6, raddoppiando la larghezza di banda delle generazioni precedenti. Le GPU Vera Rubin saranno inoltre dotate di memoria HBM4, che fornisce un aumento di 1.6 volte della larghezza di banda della memoria. Il passaggio dalle CPU Grace a Vera migliorerà significativamente anche l'interconnessione CPU-GPU, raggiungendo velocità fino a 1.8 TB/s.

NVIDIA non si è trattenuta, stuzzicando le sue GPU Rubin Ultra, il cui lancio è previsto per la seconda metà del 2027. Le GPU Rubin Ultra mirano a raddoppiare le prestazioni di Vera Rubin, offrendo ben 100 PFLOPS di elaborazione FP4 densa per GPU. Rubin Ultra sarà inoltre dotata di 1 TB di memoria HBM4e avanzata.

Scheda grafica NVIDIA DGX Spark

NVIDIA ha presentato il suo DGX Spark, un sistema introdotto sotto la Cifre del progetto moniker, al CES di quest'anno. Orientato a sviluppatori di intelligenza artificiale, ricercatori, data scientist e studenti, DGX Spark sfrutta il nuovo chip GB10 Blackwell ed è configurato con 128 GB di memoria unificata.

NVIDIA afferma che il sistema fornisce ben 1,000 AI TOPS, il che porrebbe le prestazioni dello Spark a un livello pratico equivalente all'RTX 5070. La piattaforma Spark integra anche un ConnectX 7 SmartNIC, che equipaggia lo Spark con 2 collegamenti da 200 Gb per semplificare lo spostamento dei dati. I partner OEM, tra cui ASUS, Dell, HPE e Lenovo, offriranno presto versioni brandizzate. Le prenotazioni sono già aperte, con spedizioni programmate per iniziare a luglio.

Stazione NVIDIA DGX

NVIDIA ha inoltre presentato la versione aggiornata della DGX Station, che si posiziona come il supercomputer AI desktop definitivo per applicazioni aziendali ed è basato sul chip GB300 Grace Blackwell Ultra.

La DGX Station offre 784 GB di memoria di sistema unificata e 20 petaflop di prestazioni AI FP4 dense. Ciò integra la ConnectX 8 SuperNIC di NVIDIA direttamente nel sistema, consentendo una connettività di rete a 800 Gb/s, assicurando che il networking ad alte prestazioni soddisfi le esigenze delle sue notevoli capacità di elaborazione. Partner OEM come ASUS, Box, Dell, HPE, Lambda e Supermicro sono destinati a costruire sistemi DGX Station, con disponibilità prevista entro la fine dell'anno.

Scheda grafica NVIDIA RTX Pro Blackwell

Il treno della cuccagna della GPU non si è fermato qui. NVIDIA ha presentato la sua serie RTX Pro Blackwell, un aggiornamento completo della sua gamma di GPU professionali progettata per accelerare i carichi di lavoro di intelligenza artificiale, grafica e simulazione su tutte le piattaforme. Questa nuova generazione abbraccia workstation desktop, sistemi mobili e server, con l'ammiraglia RTX Pro 6000 Blackwell dotata di una memoria GPU leader del settore da 96 GB e che offre fino a 4,000 TOPS di prestazioni AI. Questi progressi consentono il ray tracing in tempo reale, una rapida inferenza AI e flussi di lavoro grafici avanzati in precedenza irraggiungibili sui sistemi desktop.

Le innovazioni tecnologiche racchiuse in queste GPU sono sostanziali, tra cui lo Streaming Multiprocessor di NVIDIA con una velocità di elaborazione 1.5 volte superiore, RT Core di quarta generazione che offrono prestazioni doppie rispetto alle generazioni precedenti e Tensor Core di quinta generazione che supportano la nuova precisione FP4 per carichi di lavoro AI. Ulteriori miglioramenti includono il supporto PCIe Gen 5 per una larghezza di banda raddoppiata, la compatibilità con DisplayPort 2.1 per configurazioni di visualizzazione a risoluzione estrema e, nella Server Edition, NVIDIA Confidential Computing per carichi di lavoro AI sicuri.

I professionisti del settore hanno segnalato notevoli miglioramenti delle prestazioni nelle applicazioni del mondo reale. Foster + Partners ha ottenuto un ray-tracing 5 volte più veloce rispetto a RTX A6000, mentre GE HealthCare ha riscontrato un miglioramento fino a 2 volte nel tempo di elaborazione GPU per algoritmi di ricostruzione medica. Il produttore automobilistico Rivian ha sfruttato le nuove GPU per una qualità visiva VR senza precedenti nelle revisioni di progettazione e SoftServe ha segnalato un aumento della produttività di 3 volte quando si lavora con grandi modelli AI come Llama 3.3-70B. Forse la cosa più impressionante è che Pixar ha notato che il 99% dei loro scatti di produzione ora rientra nella memoria da 96 GB di una singola GPU.

La RTX Pro 6000 Blackwell Server Edition porta queste capacità negli ambienti dei data center con un design raffreddato passivamente per un funzionamento 24 ore su 7, 5 giorni su 7. Questa variante incentrata sul server offre una produttività di inferenza del modello di linguaggio di grandi dimensioni 3.3 volte superiore, un sequenziamento genomico 2 volte più veloce, accelerazioni di XNUMX volte per la generazione di testo in video e miglioramenti di XNUMX volte nell'inferenza e nel rendering dei sistemi di raccomandazione rispetto all'hardware della generazione precedente. Per la prima volta, queste GPU abilitano sia la tecnologia vGPU che Multi-Instance GPU (MIG), che consente a ciascuna scheda di essere suddivisa in un massimo di quattro istanze completamente isolate, massimizzando l'utilizzo delle risorse per carichi di lavoro diversi. Le versioni desktop di queste GPU sono pronte a raggiungere il mercato ad aprile, con le controparti server che seguiranno a maggio e i laptop basati su OEM a giugno.

Fotonica NVIDIA

NVIDIA Photonics, un'innovazione destinata a trasformare la rete ottica nei data center AI, ha completato gli annunci hardware. Sostituendo i tradizionali transceiver collegabili con motori ottici co-confezionati situati sullo stesso package dell'ASIC dello switch, NVIDIA Photonics riduce al minimo il consumo energetico e semplifica la connettività dei dati.

Utilizzando le ottimizzazioni del motore fotonico di TSMC e completata da modulatori micro-ring, laser ad alta efficienza e connettori in fibra staccabili, la nuova piattaforma Photonics è progettata per offrire un'efficienza fino a 3.5 volte migliore, una resilienza 10 volte superiore e raggiungere velocità di distribuzione 1.3 volte più veloci rispetto alle soluzioni convenzionali. Nel dimostrare il suo approccio più ampio all'ecosistema, NVIDIA ha spiegato in dettaglio come le sue partnership con i leader di produzione di componenti ottici e packaging avanzati siano fondamentali per ottenere questi guadagni in termini di prestazioni.

Con questi nuovi sviluppi, NVIDIA ha presentato tre nuovi switch con SerDes 200G nelle famiglie di switch Quantum-X e Spectrum-X. La gamma Quantum-X Infiniband include Quantum 3450-LD, che presenta ben 144 porte da 800G o 576 porte da 200G, offrendo 115 Tb/s di larghezza di banda. Sugli switch Ethernet Spectrum-X, il portafoglio spazia dal più compatto Spectrum SN6810, che offre 128 porte da 800G o 512 porte da 200G, allo Spectrum SN6800 ad alta densità, che vanta 512 porte da 800G e 2048 porte da 200G. Tutti questi switch sono dotati di tecnologia di raffreddamento a liquido per mantenere prestazioni ed efficienza ottimali.

Si prevede che gli switch NVIDIA Quantum-X Photonics InfiniBand saranno disponibili entro la fine dell'anno, mentre gli switch NVIDIA Spectrum-X Photonics Ethernet saranno disponibili nel 2026 presso i principali fornitori di infrastrutture e sistemi.

Unione di hardware e software con Nvidia Dynamo

Gli annunci di NVIDIA erano in parti uguali software e hardware. Per sfruttare appieno la potenza di calcolo delle nuove GPU Blackwell, NVIDIA ha introdotto Dynamo, un software di inferenza AI progettato specificamente per servire modelli AI su larga scala.

NVIDIA Dynamo è una piattaforma di inferenza open source progettata per ottimizzare l'implementazione di modelli AI su larga scala in interi data center. L'esclusiva architettura distribuita e disaggregata di Dynamo consente di scalare una singola query su molte GPU, accelerando notevolmente i carichi di lavoro di inferenza. Suddividendo in modo intelligente le attività di elaborazione tra il calcolo dei token di input e i token di output e sfruttando i punti di forza dell'interconnessione NVLink di NVIDIA, ottiene miglioramenti delle prestazioni fino a 30 volte per modelli ad alta intensità di ragionamento come DeepSeek R1.

Sorprendentemente, Dynamo raddoppia persino la produttività degli LLM esistenti, come LLAMA, su GPU Hopper senza hardware aggiuntivo, raddoppiando di fatto la generazione di token e il potenziale di fatturato per le fabbriche di IA. Con Dynamo, NVIDIA sta portando ottimizzazioni di livello hyperscale a tutti e le sta rendendo disponibili, consentendo a tutti di sfruttare appieno il potenziale trasformativo dell'IA.

Dynamo è disponibile oggi su GitHub e supporta i backend più diffusi, tra cui PyTorch, BLM, SGLang e TensorRT.

Nvidia AI-Q: la prossima generazione di sistemi di intelligenza artificiale agentica

NVIDIA ha anche introdotto AI-Q, pronunciato "IQ", un progetto per connettere senza problemi gli agenti AI a dati e strumenti aziendali su larga scala. Questo framework open source consente agli agenti di interrogare e ragionare su più tipi di dati, tra cui testo, immagini e video, e di sfruttare strumenti esterni come la ricerca Web e altri agenti. 

Al centro di AI-Q c'è il nuovo toolkit NVIDIA AgentIQ, una libreria software open source rilasciata oggi su GitHub. AgentIQ facilita la connessione, la profilazione e l'ottimizzazione dei sistemi multi-agente, consentendo alle aziende di creare sofisticate forze lavoro digitali. AgentIQ si integra perfettamente con i framework multi-agente esistenti, tra cui CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service e Letta, consentendo agli sviluppatori di adottarlo in modo incrementale o come soluzione completa. 

NVIDIA sta inoltre collaborando con i principali provider di archiviazione dati per creare un'architettura di riferimento per la piattaforma dati AI che integra NVIDIA NeMo Retriever, AI-Q Blueprint, GPU Blackwell, reti Spectrum X e DPU Bluefield. Per garantire l'elaborazione dei dati quasi in tempo reale e il rapido recupero delle conoscenze, dotando gli agenti AI di business intelligence essenziale.

Gli sviluppatori potranno sperimentare AI-Q a partire da aprile.

NVIDIA Mission Control: orchestrazione della fabbrica di intelligenza artificiale

Basandosi sulla sua strategia software completa, NVIDIA ha presentato Mission Control, l'unica piattaforma software di operazioni e orchestrazione unificate del settore progettata per automatizzare la gestione complessa di data center e carichi di lavoro AI. Mentre Dynamo ottimizza l'inferenza e AI-Q abilita i sistemi agenti, Mission Control affronta il livello di infrastruttura critica che sostiene l'intera pipeline AI.

Mission Control trasforma il modo in cui le aziende distribuiscono e gestiscono l'infrastruttura AI, automatizzando la gestione end-to-end, inclusi provisioning, monitoraggio e diagnosi degli errori. La piattaforma consente transizioni fluide tra carichi di lavoro di formazione e inferenza su sistemi basati su Blackwell, consentendo alle organizzazioni di riallocare le risorse del cluster man mano che le priorità cambiano dinamicamente. Incorporando la tecnologia Run:ai acquisita da NVIDIA, Mission Control aumenta l'utilizzo dell'infrastruttura fino a 5 volte, offrendo al contempo un ripristino dei lavori fino a 10 volte più rapido rispetto ai metodi tradizionali che richiedono un intervento manuale.

Il software offre diversi vantaggi operativi essenziali per i moderni carichi di lavoro AI, tra cui la configurazione semplificata del cluster, l'orchestrazione fluida del carico di lavoro per flussi di lavoro SUNK (Slurm e Kubernetes), profili di potenza ottimizzati dal punto di vista energetico con controlli selezionabili dagli sviluppatori e capacità di ripristino autonomo dei lavori. Ulteriori funzionalità includono dashboard delle prestazioni personalizzabili, controlli di integrità su richiesta e integrazione del sistema di gestione degli edifici per una migliore gestione del raffreddamento e dell'alimentazione.

I principali produttori di sistemi, tra cui Dell, HPE, Lenovo e Supermicro, hanno annunciato piani per offrire sistemi NVIDIA GB200 NVL72 e GB300 NVL72 dotati di Mission Control. Dell incorporerà il software nella sua AI Factory con NVIDIA, mentre HPE lo offrirà con i suoi sistemi rack-scale Grace Blackwell. Lenovo prevede di aggiornare le sue soluzioni Hybrid AI Advantage per includere Mission Control e Supermicro lo integrerà nei suoi sistemi Supercluster.

NVIDIA Mission Control è già disponibile per i sistemi DGX GB200 e DGX B200, con supporto per i sistemi DGX GB300, DGX B300 e GB300 NVL72 previsto per la fine dell'anno. Per le organizzazioni che desiderano iniziare a gestire l'infrastruttura AI, NVIDIA ha anche annunciato che il software Base Command Manager sarà presto gratuito per un massimo di otto acceleratori per sistema, indipendentemente dalle dimensioni del cluster.

Conclusione

Il GTC 2025 di NVIDIA ha gettato le basi per un balzo trasformativo nella tecnologia AI, svelando progressi rivoluzionari in hardware, software e infrastruttura. Dalle potenti GPU B300 basate sull'architettura Blackwell Ultra ai rivoluzionari sistemi DGX Spark e DGX Station, NVIDIA continua a ridefinire ciò che è possibile nell'elaborazione AI. L'introduzione di NVIDIA Photonics, del software di inferenza Dynamo, dei framework agentici AI-Q e della piattaforma di orchestrazione Mission Control aiuterà le aziende a raggiungere il mercato più rapidamente e a scalare in modo più efficiente e senza dubbio contribuirà ulteriormente a consolidare NVIDIA come leader in questo spazio.

Tuttavia, questa è solo la punta dell'iceberg. C'è molta più innovazione e approfondimento da esplorare al GTC. Restate sintonizzati e non perdetevi i nostri altri articoli di notizie questa settimana, mentre continuiamo a fornirvi gli ultimi annunci e approfondimenti sull'entusiasmante futuro di NVIDIA.

Interagisci con StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed