Casa ImpresaAI NVIDIA GTC 2025: Strumenti di accelerazione AI

NVIDIA GTC 2025: Strumenti di accelerazione AI

by Divyansh Jain

NVIDIA ha sfruttato il GTC 2025 per annunciare un nuovo software che promuove l'innovazione e l'ottimizzazione dell'intelligenza artificiale.

Durante l'evento GTC 2025, NVIDIA ha annunciato significativi progressi nell'AI e nell'ottimizzazione delle decisioni, svelando le ultime librerie CUDA-X e rendendo open source il suo potente motore di ottimizzazione cuOpt. Queste innovazioni accelerano notevolmente i flussi di lavoro di data science e il processo decisionale in tempo reale in tutti i settori.

Con l'evoluzione continua dell'intelligenza artificiale e della scienza dei dati, la capacità di elaborare e analizzare rapidamente enormi set di dati è diventata un fattore di differenziazione critico. Le librerie CUDA-X di NVIDIA, basate sulla piattaforma CUDA, offrono una raccolta di librerie accelerate da GPU che offrono prestazioni significativamente più elevate rispetto alle tradizionali alternative basate solo su CPU.

L'ultima release, cuML 25.02, ora disponibile in open beta, consente a data scientist e ricercatori di accelerare algoritmi di machine learning popolari come scikit-learn, UMAP e HDBSCAN senza modifiche al codice. Questo paradigma di accelerazione senza modifiche al codice, stabilito per la prima volta da cuDF-pandas per le operazioni DataFrame, ora si estende alle attività di machine learning, riducendo i tempi di calcolo da ore a secondi.

cuOpt diventa open source

NVIDIA ha anche annunciato che renderà open source cuOpt, il suo motore di ottimizzazione delle decisioni basato sull'intelligenza artificialeQuesta decisione rende il potente software disponibile gratuitamente a sviluppatori, ricercatori e aziende, inaugurando una nuova era di ottimizzazione in tempo reale su una scala senza precedenti.

L'ottimizzazione delle decisioni è fondamentale per le aziende di tutto il mondo, dalle aziende di logistica che determinano percorsi ottimali per i camion alle compagnie aeree che reindirizzano i voli durante le interruzioni. I metodi di ottimizzazione tradizionali spesso hanno difficoltà con la complessità esponenziale di questi problemi, impiegando ore o persino giorni per elaborare soluzioni. cuOpt, basato sulle GPU NVIDIA, affronta questo problema valutando dinamicamente miliardi di variabili simultaneamente: livelli di inventario, produzioni di fabbrica, ritardi nelle spedizioni, costi del carburante, fattori di rischio e normative, per fornire soluzioni ottimali quasi in tempo reale.

Le principali aziende di ottimizzazione, tra cui Gurobi Optimization, IBM, il team Xpress di FICO, HiGHS, SimpleRose e COPT, stanno già integrando o valutando cuOpt per migliorare le loro capacità decisionali. Gurobi Optimization, ad esempio, sta testando attivamente i solver cuOpt per perfezionare gli algoritmi di primo ordine per prestazioni di livello successivo.

I primi benchmark dimostrano le straordinarie prestazioni di cuOpt:

  • Accelerazione della programmazione lineare: in media 70 volte più veloce rispetto ai risolutori basati su CPU, con accelerazioni che vanno da 10x a 3,000x.
  • Programmazione mista intera: risoluzioni 60 volte più veloci, come dimostrato da SimpleRose.
  • Routing del veicolo: accelerazione di 240 volte nel routing dinamico, che consente modifiche del percorso pressoché istantanee.

Piattaforma dati AI per storage aziendale accelerato

Inoltre, NVIDIA ha presentato il Piattaforma dati AI NVIDIA, un'architettura di riferimento personalizzabile progettata per accelerare i carichi di lavoro di inferenza AI all'interno dei sistemi di storage aziendali. Questa nuova piattaforma consente ai provider di storage di integrare agenti di query AI specializzati basati sulle tecnologie di elaborazione, networking e software accelerate di NVIDIA.

Sfruttando il software NVIDIA AI Enterprise, inclusi i microservizi NVIDIA NIM per i nuovi modelli di ragionamento NVIDIA Llama Nemotron e NVIDIA AI-Q Blueprint, questi agenti di query AI possono generare rapidamente informazioni da fonti di dati strutturate, semi-strutturate e non strutturate. Ciò include testo, PDF, immagini e video.

La piattaforma utilizza GPU NVIDIA Blackwell, DPU BlueField, networking Spectrum-X e la libreria di inferenza open source NVIDIA Dynamo per migliorare significativamente le prestazioni. Le DPU BlueField offrono prestazioni fino a 1.6 volte superiori rispetto alle tradizionali soluzioni di storage basate su CPU, riducendo al contempo il consumo energetico fino al 50%. Il networking Spectrum-X accelera ulteriormente il traffico di storage AI fino al 48% rispetto a Ethernet convenzionale.

I principali provider di storage, tra cui DDN, Dell Technologies, VAST Data, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage e WEKA, stanno collaborando con NVIDIA per integrare queste capacità nelle loro offerte di storage aziendale. I provider di storage certificati NVIDIA hanno in programma di lanciare soluzioni basate sulla NVIDIA AI Data Platform a partire da questo mese.

Modelli di ragionamento NVIDIA Llama Nemotron

NVIDIA ha annunciato anche nuovi modelli nel Lama Nemotron family, una serie di modelli di ragionamento AI aperti e pronti per il business, progettati specificamente per la creazione di agenti avanzati in grado di risolvere attività complesse. Basati su LLAMA, uno dei modelli aperti più ampiamente adottati, i modelli Llama Nemotron sono stati potati algoritmicamente per ridurre le dimensioni del modello, ottimizzando l'efficienza computazionale e preservando l'accuratezza.

Questi modelli sono stati ulteriormente post-addestrati per indurre capacità di ragionamento attraverso benchmark critici per matematica, chiamata di strumenti, istruzione successiva e attività conversazionali. NVIDIA sta rendendo questi modelli disponibili apertamente e rilasciando i set di dati e le tecniche di addestramento utilizzati per ottenere la loro elevata accuratezza. Questi set di dati comprendono 60 miliardi di token di dati sintetici generati da NVIDIA, che rappresentano circa 360,000 ore di inferenza H100 e 45,000 ore di annotazione umana, tutti accessibili apertamente agli sviluppatori.

Una caratteristica unica dei modelli Llama Nemotron è la possibilità di attivare o disattivare le capacità di ragionamento, offrendo agli sviluppatori una flessibilità senza precedenti. I modelli sono disponibili in tre varianti: Nano, Super e Ultra. Nano offre la massima accuratezza di ragionamento nella sua categoria. Super offre un'accuratezza ottimale combinata con la massima produttività su una singola GPU del data center e Ultra offre la massima accuratezza agentica ottimizzata per server multi-GPU su scala di data center.

I modelli Nano e Super sono disponibili da subito come microservizi NIM, accessibili e scaricabili all'indirizzo ai.nvidia.com, mentre il modello Ultra è previsto in uscita a breve.

NVIDIA Omniverse Blueprint migliora la progettazione e la simulazione delle fabbriche AI

Riconoscendo la crescente domanda di fabbriche basate sull'intelligenza artificiale, NVIDIA ha presentato NVIDIA Omniverse Blueprint per la progettazione e le operazioni di fabbriche basate sull'intelligenza artificiale.

Durante il suo discorso principale, il fondatore e CEO di NVIDIA Jensen Huang ha dimostrato come il team di ingegneria dei data center di NVIDIA ha sfruttato Omniverse Blueprint per pianificare, ottimizzare e simulare una fabbrica AI da 1 gigawatt. Collegati ai principali strumenti di simulazione come Cadence Reality Digital Twin Platform ed ETAP, gli ingegneri possono testare e ottimizzare alimentazione, raffreddamento e networking molto prima dell'inizio della costruzione.

Progetto Omniverso integra le librerie OpenUSD, consentendo agli sviluppatori di aggregare dati 3D da diverse fonti, tra cui sistemi di elaborazione accelerata NVIDIA e unità di alimentazione o raffreddamento di Schneider Electric e Vertiv. Il progetto aiuta gli ingegneri ad affrontare le sfide di integrazione dei componenti, efficienza di raffreddamento, affidabilità dell'alimentazione e ottimizzazione della rete.

Rompendo i silos ingegneristici tradizionali, Omniverse Blueprint consente ai team multidisciplinari di collaborare in tempo reale, ottimizzando l'uso dell'energia, eliminando potenziali punti di guasto e modellando le condizioni del mondo reale. Le simulazioni in tempo reale consentono un processo decisionale più rapido, riducendo significativamente il rischio di costosi tempi di inattività.

Con una previsione di 1 trilione di dollari per gli aggiornamenti dei data center basati sull'intelligenza artificiale, Omniverse Blueprint di NVIDIA è destinato a guidare la trasformazione, aiutando gli operatori delle fabbriche di intelligenza artificiale a tenere il passo con l'evoluzione dei carichi di lavoro, ridurre al minimo i tempi di inattività e massimizzare l'efficienza.

Il nuovo Isaac GROOT N1 accelera la robotica umanoide

NVIDIA ha introdotto nuove tecnologie al GTC 2025 per accelerare lo sviluppo della robotica umanoide. Al centro di questo annuncio c'è Scheda grafica NVIDIA Isaac GR00T N1, il primo modello di base aperto e completamente personalizzabile al mondo, progettato per il ragionamento e le competenze umanoidi generalizzati.

GR00T N1 sfrutta un'architettura a doppio sistema modellata sulla cognizione umana. Il sistema 1 funziona come un modulo ad azione rapida, analogo ai riflessi umani, generando movimenti robotici precisi addestrati su una miscela di dimostrazioni umane e dati sintetici da NVIDIA Omniverse. Il sistema 2, un modulo a pensiero più lento alimentato da un modello di linguaggio visivo, interpreta l'ambiente circostante e le istruzioni per un processo decisionale deliberato e metodico. Queste capacità consentono a GR00T N1 di generalizzare attività complesse e multi-step in applicazioni quali movimentazione dei materiali, imballaggio e ispezione.

"La robotica generalista sta entrando in un'era di trasformazione", ha osservato il CEO di NVIDIA Jensen Huang. Ha dimostrato questo potenziale con un robot umanoide di 1X Technologies che esegue autonomamente compiti domestici, mostrando le capacità ottenibili tramite un minimo di post-formazione aggiuntivo.

Bernt Børnich, CEO di 1X Technologies, ha sottolineato l'adattabilità e l'apprendimento nella robotica, sottolineando come GR00T N1 di NVIDIA abbia notevolmente semplificato l'impiego del loro robot NEO Gamma, favorendo la creazione di umanoidi che fungono da compagni e assistenti pratici.

I principali innovatori della robotica, quali Agility Robotics, Boston Dynamics, Mentee Robotics e NEURA Robotics, hanno ottenuto l'accesso anticipato a GR00T N1, posizionandosi all'avanguardia in questa evoluzione della robotica.

Newton: motore fisico open source

NVIDIA ha anche annunciato Newton, un motore fisico open source sviluppato con Google DeepMind e Disney Research. Newton è ottimizzato specificamente per la robotica ed è compatibile con piattaforme di simulazione consolidate come MuJoCo e NVIDIA Isaac Lab. MuJoCo-Warp, Un'altra collaborazione tra Google DeepMind e NVIDIA promette un'accelerazione di 70 volte nei carichi di lavoro di apprendimento automatico in ambito robotico.

Disney Research integrerà Newton nella sua piattaforma di personaggi robotici, alimentando robot di intrattenimento espressivi di nuova generazione come i droidi BDX ispirati a Star Wars presentati durante il discorso principale di Huang. Kyle Laughlin, Senior Vice President presso Walt Disney Imagineering Ricerca e sviluppo, ha evidenziato il ruolo di Newton nella creazione di personaggi robotici più interattivi ed emotivamente coinvolgenti per le future esperienze Disney.

Svelato il progetto di Isaac GROOT

GR00T N1 impiega un'architettura a doppio sistema ispirata alla cognizione umana. Il sistema 1 rappresenta un modello di azione a pensiero rapido, che riflette i riflessi e l'intuizione umani. Il sistema 2 funge da modello a pensiero lento per un processo decisionale deliberato e metodico.

Grazie a un modello di linguaggio visivo, il Sistema 2 analizza il suo ambiente e le istruzioni ricevute per pianificare le azioni. Il Sistema 1 traduce quindi questi piani in movimenti precisi e continui per il robot. Il Sistema 1 viene addestrato utilizzando dati di dimostrazione umana e una vasta quantità di dati sintetici generati dalla piattaforma NVIDIA Omniverse.

Per rispondere alla continua esigenza degli sviluppatori di robotica di dati di formazione estesi e di alta qualità, NVIDIA ha presentato Progetto Isaac GR00T per la generazione di movimento sintetico. Questo progetto produce rapidamente enormi set di dati sintetici: 780,000 traiettorie sintetiche (equivalenti a nove mesi di dati umani continui) sono state generate in 11 ore. L'integrazione di questi dati sintetici ha aumentato le prestazioni di GR00T N1 del 40% rispetto ai soli dati del mondo reale.

Per supportare ulteriormente la comunità della robotica, NVIDIA ha rilasciato i set di dati e gli scenari di valutazione GR00T N1 tramite Hugging Face e GitHub. Inoltre, gli sviluppatori possono accedere alla demo Isaac GR00T Blueprint su build.nvidia.com e GitHub. Il prossimo motore fisico Newton, previsto per la fine dell'anno, completerà ulteriormente queste risorse. Il supercomputer AI personale DGX Spark di NVIDIA offre una soluzione chiavi in ​​mano per gli sviluppatori per espandere le capacità di GR00T N1 per diverse applicazioni di robotica.

Modelli avanzati di Cosmos World Foundation per lo sviluppo dell'intelligenza artificiale fisica

Al GTC 2025, NVIDIA ha annunciato un'importante espansione della sua Fondazione Cosmos World Modelli (WFM), che offrono agli sviluppatori modelli di ragionamento aperti e completamente personalizzabili per migliorare significativamente lo sviluppo dell'IA fisica. Queste innovazioni offrono un controllo e un'efficienza senza precedenti nella generazione di dati di addestramento sintetici per la robotica e i veicoli autonomi.

Tra i lanci chiave ci sono due nuovi progetti basati sulle piattaforme Omniverse e Cosmos di NVIDIA, che accelerano la generazione di dati sintetici e i processi di post-formazione. Tra i primi ad adottare queste piattaforme ci sono leader del settore come 1X, Agility Robotics, Figure AI, Foretellix, Skild AI e Uber, che stanno già sfruttando Cosmos per una maggiore ricchezza di dati e scalabilità.

Cosmos Transfer, un significativo progresso nella generazione di dati sintetici, prende input video strutturati, come mappe di segmentazione, scansioni lidar e stima della posa, e li converte in output video fotorealistici e controllabili. Ciò semplifica l'addestramento dell'intelligenza artificiale percettiva trasformando in modo efficiente le simulazioni 3D generate da Omniverse in set di dati video realistici. Agility Robotics è tra i primi a integrare Cosmos Transfer, utilizzandolo ampiamente per migliorare i suoi processi di addestramento dei robot.

Il progetto Omniverse impiega il trasferimento del cosmo

Per le simulazioni di veicoli autonomi, NVIDIA ha introdotto Omniverse Blueprint che impiega Cosmos Transfer per variare le condizioni dei dati dei sensori, come il meteo o l'illuminazione, arricchendo significativamente i set di dati. Foretellix e Parallel Domain hanno adottato questo blueprint, consentendo simulazioni di scenari comportamentali migliorate e più diversificate.

Inoltre, NVIDIA GR00T Blueprint utilizza le piattaforme Omniverse e Cosmos Transfer per generare rapidamente set di dati di movimento di manipolazione sintetica su larga scala, riducendo drasticamente il tempo necessario per la raccolta dei dati da giorni a poche ore.

Il cosmo prevede e il cosmo ragiona

Cosmos Predict, presentato per la prima volta al CES a gennaio, facilita la generazione intelligente di mondi virtuali da input multimodali, tra cui testo, immagini e video. Gli ultimi modelli Cosmos Predict sono potenziati per supportare la generazione multi-frame e prevedere azioni intermedie da stati visivi iniziali e finali. Utilizzando Grace Blackwell NVL72 di NVIDIA sistemi, gli sviluppatori ottengono una generazione di mondi virtuali personalizzabili e in tempo reale. Organizzazioni come 1X, Skild AI, Nexar e Oxa stanno sfruttando Cosmos Predict per i progressi della robotica e della guida autonoma.

NVIDIA ha anche introdotto Ragione del cosmo, un WFM aperto e personalizzabile in grado di ragionare spaziotemporalmente. Questo modello impiega metodi di pensiero a catena per analizzare e interpretare i dati video, prevedendo risultati di interazione chiaramente descritti in linguaggio naturale. Cosmos Reason semplifica l'annotazione dei dati, migliora i WFM esistenti e supporta la creazione di pianificatori di azioni di alto livello per sistemi di intelligenza artificiale fisica.

NVIDIA offre solide capacità di post-formazione utilizzando script PyTorch o NVIDIA NeMo su DGX Cloud per accelerare la cura dei dati e il perfezionamento del modello. NeMo Curator accelera ulteriormente l'elaborazione dei dati video su larga scala, con Linker Vision, Milestone Systems, Virtual Incision, Uber e Waabi che adottano queste soluzioni per applicazioni AI avanzate.

In linea con l'impegno di NVIDIA per un'intelligenza artificiale responsabile, i WFM Cosmos incorporano protezioni trasparenti e identificazione dei contenuti tramite una collaborazione con la tecnologia di filigrana SynthID di Google DeepMind.

I Cosmos WFM sono disponibili nel catalogo API NVIDIA e nel Vertex AI Model Garden su Google Cloud. Cosmos Predict e Cosmos Transfer sono accessibili apertamente su Hugging Face e GitHub, mentre Cosmos Reason è disponibile in accesso anticipato.

Oracle e NVIDIA collaborano per accelerare l'innovazione dell'intelligenza artificiale aziendale

Oracle e NVIDIA hanno annunciato un'integrazione rivoluzionaria del software di elaborazione e inferenza accelerata di NVIDIA con l'infrastruttura AI e i servizi AI generativi di Oracle. Questa partnership è progettata per accelerare l'implementazione globale di applicazioni AI agentiche, migliorando significativamente le capacità delle organizzazioni nei carichi di lavoro basati sull'AI.

L'integrazione lo consente Infrastruttura Oracle Cloud (OCI) i clienti hanno accesso diretto a oltre 160 strumenti AI e più di 100 microservizi NVIDIA NIM tramite la console OCI. Oracle e NVIDIA stanno collaborando su soluzioni di distribuzione senza codice tramite Oracle e NVIDIA AI Blueprints e ottimizzando le capacità di ricerca vettoriale AI in Oracle Database 23ai utilizzando la libreria cuVS di NVIDIA.

Soluzioni su misura per l'intelligenza artificiale aziendale

L'integrazione del software NVIDIA AI Enterprise in OCI Console riduce drasticamente i tempi di distribuzione per i modelli di ragionamento. I clienti ottengono accesso immediato a microservizi NVIDIA NIM cloud-native ottimizzati, che supportano modelli AI avanzati come Llama Nemotron di NVIDIA. NVIDIA AI Enterprise sarà disponibile come immagini di distribuzione per istanze bare-metal OCI e cluster Kubernetes tramite OCI Kubernetes Engine, con Oracle che fornisce fatturazione diretta e supporto clienti senza interruzioni.

Clienti come Soley Therapeutics stanno sfruttando l'infrastruttura AI OCI combinata con NVIDIA AI Enterprise e GPU Blackwell per guidare innovazioni nella scoperta di farmaci basata sull'intelligenza artificiale. Questa offerta integrata soddisfa una gamma di esigenze aziendali, dalla privacy e sovranità dei dati alle applicazioni a bassa latenza.

Distribuzione accelerata dell'intelligenza artificiale tramite progetti

OCI AI Blueprints fornisce ai clienti ricette di distribuzione automatizzate e senza codice, semplificando notevolmente la configurazione dei carichi di lavoro AI. NVIDIA Blueprints completa questo con flussi di lavoro di riferimento unificati, consentendo alle aziende di personalizzare e implementare rapidamente applicazioni AI personalizzate basate su NVIDIA AI Enterprise e NVIDIA Omniverse.

Per semplificare ulteriormente lo sviluppo di applicazioni AI, la piattaforma NVIDIA Omniverse, le workstation Isaac Sim e Omniverse Kit App Streaming saranno disponibili tramite OCI Marketplace più avanti quest'anno. Queste offerte sfrutteranno istanze di elaborazione bare-metal accelerate da GPU NVIDIA L40S. Pipefy, una piattaforma di automazione aziendale basata su AI, esemplifica il successo di questi progetti, utilizzandoli per attività di elaborazione di documenti e immagini efficienti.

Inferenza AI in tempo reale con NVIDIA NIM su OCI Data Science

L'ambiente OCI Data Science ora include microservizi NVIDIA NIM pre-ottimizzati, consentendo una rapida distribuzione di soluzioni di inferenza AI in tempo reale con una gestione minima dell'infrastruttura. I clienti mantengono la sicurezza e la conformità dei dati poiché questi modelli operano all'interno della loro tenancy OCI, disponibile tramite modelli di prezzo flessibili, tra cui fatturazione oraria o Oracle Universal Credits.

Database Oracle 23ai migliorato

Oracle e NVIDIA stanno migliorando Ricerca vettoriale AI di Oracle Database 23ai funzionalità sfruttando le GPU NVIDIA e cuVS. Questa collaborazione accelera significativamente la creazione e la manutenzione di incorporamenti e indici vettoriali, ottimizzando le prestazioni per carichi di lavoro intensivi di ricerca vettoriale AI. Aziende come DeweyVision utilizzano già questa integrazione per analisi e recupero dei media avanzati basati su AI, trasformando i flussi di lavoro di produzione e la rilevabilità dei contenuti.

La partnership introduce anche GPU NVIDIA Blackwell di nuova generazione nell'infrastruttura globale di OCI, tra cui cloud pubblici, cloud sovrani, regioni dedicate, Oracle Alloy, Compute Cloud@Customer e Roving Edge Devices. OCI presenterà presto sistemi NVIDIA GB200 NVL72, che offrono immense capacità di calcolo con efficienza e convenienza notevolmente migliorate. OCI è tra i primi a offrire la potente piattaforma di elaborazione accelerata NVIDIA Blackwell, che migliora ulteriormente il ragionamento AI e le capacità AI fisiche.

SoundHound sfrutta l'infrastruttura accelerata dalla GPU NVIDIA di OCI per supportare miliardi di query conversazionali ogni anno, dimostrando l'efficacia e la scalabilità di questa collaborazione nel mondo reale nelle soluzioni di intelligenza artificiale vocale e conversazionale.

Progetto Omniverse per l'analisi meteorologica di Earth-2

NVIDIA ha introdotto il Progetto Omniverse per Terra-2 analisi meteorologiche, progettate per accelerare lo sviluppo e l'implementazione di soluzioni di previsioni meteorologiche altamente accurate. Questo framework innovativo fornisce alle aziende tecnologie avanzate per migliorare la gestione del rischio, la preparazione ai disastri e la resilienza climatica, aree critiche, considerando che gli eventi meteorologici correlati al clima hanno causato impatti economici globali per un totale di circa 2 trilioni di $ nell'ultimo decennio.

Omniverse Blueprint per Earth-2 fornisce flussi di lavoro di riferimento completi, che incorporano librerie di accelerazione GPU NVIDIA, framework di fisica-AI, strumenti di sviluppo e microservizi NVIDIA NIM accessibili. Questi microservizi includono CorrDiff per previsioni meteorologiche numeriche ad alta risoluzione e FourCastNet per le previsioni delle dinamiche atmosferiche globali. Aziende, ricercatori e agenzie governative stanno già sfruttando questi microservizi per ricavare informazioni e mitigare i rischi associati a condizioni meteorologiche estreme.

Adozione e supporto dell'ecosistema

Importanti aziende di tecnologia climatica, come G42, focalizzata sull'intelligenza artificiale, JBA Risk Management e Spire Global, stanno sfruttando la piattaforma Earth-2 di NVIDIA per creare soluzioni meteorologiche innovative potenziate dall'intelligenza artificiale. Queste organizzazioni forniscono previsioni meteorologiche notevolmente accelerate integrando dati aziendali proprietari, riducendo i tempi di previsione tradizionali da ore a secondi.

G42 sta implementando elementi dell'Omniverse Blueprint con i suoi modelli di previsione AI per migliorare le capacità di previsione meteorologica e gestione dei disastri del National Center of Meteorology degli Emirati Arabi Uniti. Spire Global impiega componenti AI derivati ​​da blueprint e dati satellitari proprietari per offrire previsioni a medio raggio e sub-stagionali, superando significativamente i tradizionali modelli basati sulla fisica di un fattore 1,000 in velocità.

Tra gli altri primi utilizzatori ed esploratori figurano la Central Weather Administration di Taiwan, The Weather Company, Ecopia AI, ESRI, GCL Power, OroraTech e Tomorrow.io, che hanno ulteriormente ampliato l'ecosistema e la diversità delle applicazioni di Earth-2.

Funzionalità avanzate di intelligenza artificiale generativa

Il progetto Omniverse include CorrDiff, disponibile come microservizio NVIDIA NIM, che fornisce vantaggi prestazionali fino a 500 volte superiori in termini di velocità e 10,000 volte in più di efficienza energetica rispetto ai metodi tradizionali basati su CPU. I fornitori di software indipendenti (ISV) possono sfruttare questo modello per creare rapidamente soluzioni di analisi meteorologica basate sull'intelligenza artificiale, beneficiando di un'elaborazione avanzata dei dati osservativi per una maggiore accuratezza e reattività.

Esri, il principale fornitore di software geospaziale, sta collaborando con NVIDIA per connettere la sua piattaforma ArcGIS con Earth-2. OroraTech e Tomorrow.io stanno integrando set di dati proprietari nel gemello digitale Earth-2 di NVIDIA per migliorare la prossima generazione di modelli AI.

Alimentato da NVIDIA DGX Cloud

Omniverse Blueprint per Earth-2 sfrutta l'infrastruttura NVIDIA DGX Cloud, inclusi i supercomputer DGX GB200, HGX B200 e OVX, consentendo la simulazione e la visualizzazione ad alte prestazioni di scenari climatici globali. Questa soluzione completa basata sul cloud migliora significativamente le capacità di previsione meteorologica basate sull'intelligenza artificiale, aiutando le organizzazioni a raggiungere velocità, scala e accuratezza di previsione senza precedenti.

Halos: sistema di sicurezza per veicoli autonomi

NVIDIA ha introdotto Halos, un framework di sicurezza completo che unifica il suo vasto hardware automobilistico, le soluzioni software e la ricerca AI all'avanguardia per accelerare lo sviluppo sicuro dei veicoli autonomi (AV). Progettato per coprire l'intero ciclo di vita dello sviluppo AV, dagli ambienti di formazione cloud all'implementazione del veicolo, Halos consente agli sviluppatori di integrare tecnologie all'avanguardia che migliorano la sicurezza di conducenti, passeggeri e pedoni.

Riccardo Mariani, Vice President of Industry Safety di NVIDIA, ha sottolineato che Halo migliora le misure di sicurezza esistenti e potrebbe accelerare gli sforzi di conformità normativa e standardizzazione, consentendo ai partner di selezionare soluzioni tecnologiche su misura che soddisfino le loro esigenze di sicurezza AV.

Tre pilastri di Halos

Halos offre un approccio olistico alla sicurezza strutturato attorno a tre livelli chiave: tecnologia, sviluppo e sicurezza computazionale. A livello tecnologico, Halos affronta la sicurezza della piattaforma, la sicurezza algoritmica e la sicurezza dell'ecosistema. Durante lo sviluppo, fornisce robuste protezioni nelle fasi di progettazione, distribuzione e convalida. Dal punto di vista computazionale, Halos copre la formazione AI per la distribuzione AV, alimentata dai sistemi DGX di NVIDIA per la formazione del modello AI, dalle piattaforme Omniverse e Cosmos in esecuzione su NVIDIA OVX per la simulazione e da NVIDIA DRIVE AGX per la distribuzione del veicolo.

Marco Pavone, ricercatore principale AV di NVIDIA, ha sottolineato l'importanza dell'approccio integrato di Halos negli ambienti che sfruttano l'intelligenza artificiale generativa per sistemi AV sempre più sofisticati, ambiti che i tradizionali metodi di progettazione compositiva e verifica faticano ad affrontare in modo efficace.

Laboratorio di ispezione dei sistemi AI

L'AI Systems Inspection Lab di NVIDIA, una parte cruciale di Halos, è il primo programma al mondo accreditato dall'ANSI National Accreditation Board. Questo laboratorio garantisce che i produttori di automobili e gli sviluppatori integrino in modo sicuro le tecnologie NVIDIA nelle loro soluzioni, incorporando sicurezza funzionale, sicurezza informatica, sicurezza AI e conformità in un protocollo di sicurezza unificato. I membri iniziali includono i leader del settore Ficosa, OMNIVISION, Onsemi e Continental.

Sicurezza della piattaforma, degli algoritmi e dell'ecosistema

Halos enfatizza la sicurezza della piattaforma tramite un sistema su chip (SoC) valutato per la sicurezza, software NVIDIA DriveOS certificato per la sicurezza che si estende dalla CPU alla GPU e DRIVE AGX Hyperion, integrando SoC, software e sensori in un'architettura unificata. Per la sicurezza algoritmica, Halos offre librerie e API per la gestione dei dati di sicurezza, insieme ad ambienti di simulazione e convalida avanzati basati su modelli di fondazione NVIDIA Omniverse Blueprint e Cosmos. La sicurezza dell'ecosistema include set di dati di sicurezza completi, valutazioni di sicurezza automatizzate e processi di miglioramento continuo.

Credenziali di sicurezza

Halos sfrutta il profondo impegno di NVIDIA nei confronti della sicurezza AV, sottolineato da:

  • Oltre 15,000 anni di ingegneria dedicati alla sicurezza dei veicoli.
  • Oltre 10,000 ore dedicate ai comitati di normazione internazionali.
  • Oltre 1,000 brevetti depositati in materia di sicurezza dei veicoli autonomi.
  • Sono stati pubblicati più di 240 articoli di ricerca sulla sicurezza dei veicoli autonomi.
  • Oltre 30 certificazioni in materia di sicurezza e sicurezza informatica.

Tra le principali certificazioni recenti per i prodotti automotive di NVIDIA figurano la conformità di NVIDIA DriveOS 6.0 alla norma ISO 26262 ASIL D, la certificazione del processo di sicurezza informatica ISO/SAE 21434 di TÜV SÜD e la valutazione di sicurezza indipendente di TÜV Rheinland per la piattaforma NVIDIA DRIVE AV.

Annunciato l'Accelerated Quantum Research Center per promuovere il Quantum Computing

NVIDIA ha annunciato l'istituzione di un nuovo centro di ricerca a Boston, Centro di ricerca quantistica accelerata NVIDIA (NVAQC), dedicato all'avanzamento delle tecnologie di calcolo quantistico. Questa struttura unirà hardware quantistico all'avanguardia con le risorse di supercomputing basate sull'intelligenza artificiale di NVIDIA, accelerando significativamente le capacità di supercomputing quantistico.

NVAQC mira ad affrontare le sfide critiche che il calcolo quantistico deve affrontare, tra cui la riduzione del rumore dei qubit e la trasformazione dei processori quantistici sperimentali in dispositivi pratici e implementabili. I principali leader del settore del calcolo quantistico, come Quantinuum, Quantum Machines e QuEra Computing, sfrutteranno le risorse di NVAQC collaborando a stretto contatto con istituzioni accademiche di alto livello, tra cui Harvard Quantum Initiative in Science and Engineering (HQI) e il gruppo Engineering Quantum Systems (EQuS) del MIT.

Il centro utilizzerà i sistemi rack-scale GB200 NVL72 di NVIDIA, l'hardware più potente ottimizzato per applicazioni di calcolo quantistico. Questa infrastruttura avanzata supporterà sofisticate simulazioni di sistemi quantistici e faciliterà l'implementazione di algoritmi di controllo hardware quantistico a bassa latenza necessari per la correzione degli errori quantistici. Inoltre, la potente piattaforma GB200 NVL72 guiderà l'integrazione di algoritmi AI nella ricerca quantistica, migliorando l'efficienza computazionale complessiva.

Per affrontare le complessità di integrazione tra GPU e hardware di unità di elaborazione quantistica (QPU), i ricercatori di NVAQC utilizzeranno la piattaforma di sviluppo quantistico CUDA-Q di NVIDIA. CUDA-Q facilita la creazione di algoritmi e applicazioni quantistiche ibride avanzate, consentendo un'integrazione più fluida e risultati di ricerca più efficienti.

Le collaborazioni con la Quantum Initiative di Harvard si concentreranno sulle tecnologie pionieristiche di calcolo quantistico di prossima generazione. Allo stesso tempo, il gruppo EQuS del MIT sfrutterà l'infrastruttura avanzata di NVAQC per migliorare le tecniche, in particolare i metodi di correzione degli errori quantistici, cruciali per le implementazioni pratiche del calcolo quantistico.

Si prevede che l'NVAQC diventi operativo entro la fine dell'anno, segnando un importante passo avanti nella ricerca e nello sviluppo dell'informatica quantistica.

Interagisci con StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed