Casa ImpresaAI NVIDIA e Google Cloud collaborano per portare l'intelligenza artificiale agentica alle aziende

NVIDIA e Google Cloud collaborano per portare l'intelligenza artificiale agentica alle aziende

by Harold Fritt

NVIDIA e Google Cloud collaborano per portare l'intelligenza artificiale agentica nelle aziende utilizzando i modelli di intelligenza artificiale di Google Gemini attraverso le piattaforme Blackwell HGX e DGX.

NVIDIA ha annunciato una partnership strategica con Google Cloud per introdurre l'intelligenza artificiale agentica nelle aziende. Questa collaborazione consente alle aziende di utilizzare localmente la famiglia di modelli di intelligenza artificiale Google Gemini tramite le piattaforme Blackwell HGX e DGX di NVIDIA e NVIDIA Confidential Computing per una maggiore sicurezza dei dati.

Abilitare la conformità e la sicurezza con NVIDIA Blackwell

La piattaforma NVIDIA Blackwell, integrata con Google Distributed Cloud, consente ai data center on-premise di soddisfare i requisiti normativi e le leggi sulla sovranità dei dati. Le aziende possono garantire la conformità mantenendo al contempo l'efficienza operativa limitando l'accesso a informazioni sensibili come cartelle cliniche, transazioni finanziarie e dati governativi classificati. Inoltre, NVIDIA Confidential Computing salvaguarda il codice sensibile all'interno dei modelli Gemini, proteggendolo da accessi non autorizzati e potenziali violazioni dei dati.

Sachin Gupta, Vicepresidente e Direttore Generale di Infrastrutture e Soluzioni di Google Cloud, ha sottolineato che la partnership consente alle aziende di sfruttare in modo sicuro il pieno potenziale dell'intelligenza artificiale agentiva, combinando le prestazioni e le capacità di elaborazione confidenziale di NVIDIA Blackwell con la semplicità operativa.

Sicurezza a doppio strato

Il Confidential Computing con NVIDIA Blackwell offre alle aziende la garanzia tecnica che i prompt degli utenti per l'interfaccia di programmazione delle applicazioni (API) dei modelli Gemini e i dati utilizzati per la messa a punto rimangano protetti. Questa sicurezza a doppio livello protegge da accessi non autorizzati o manomissioni, consentendo alle aziende di innovare in tutta sicurezza con i modelli Gemini, preservando al contempo la privacy dei dati.

Il dilemma on-premise

Nonostante i progressi nel ragionamento multimodale – che integra testo, immagini, codice e altri tipi di dati per risolvere problemi complessi – le aziende con rigorosi requisiti di sicurezza o sovranità dei dati hanno dovuto affrontare difficoltà nell'adozione di queste tecnologie. Questa partnership affronta queste sfide rendendo Google Cloud uno dei primi fornitori a offrire funzionalità di confidential computing per la protezione dei carichi di lavoro di intelligenza artificiale agentica in tutti gli ambienti, sia basati su cloud che ibridi.

Basata sulla piattaforma NVIDIA HGX B200 con GPU Blackwell e NVIDIA Confidential Computing, questa soluzione consente ai clienti di proteggere i propri modelli e dati di intelligenza artificiale (IA) ottenendo al contempo prestazioni e un'efficienza energetica rivoluzionarie. Le aziende possono ora mantenere la sicurezza dei dati e l'integrità dei modelli senza compromettere l'innovazione.

Osservabilità e sicurezza dell'IA per l'IA agentiva

Scalare l'IA agentica in produzione richiede osservabilità e sicurezza solide per garantire prestazioni affidabili e conformità. Per risolvere questo problema, Google Cloud ha introdotto GKE Inference Gateway, progettato per ottimizzare l'implementazione dei carichi di lavoro di inferenza IA attraverso routing e scalabilità avanzati. Integrandosi con NVIDIA Triton Inference Server e NVIDIA NeMo Guardrails, il gateway fornisce un bilanciamento del carico intelligente che migliora le prestazioni e riduce i costi di servizio. Consente inoltre la sicurezza e la governance centralizzate dei modelli.

Guardando al futuro, Google Cloud prevede di migliorare l'osservabilità per i carichi di lavoro di intelligenza artificiale (IA) agentica integrando NVIDIA Dynamo, una libreria open source progettata per servire e scalare modelli di IA basati sul ragionamento in tutte le fabbriche di IA. Questo approccio lungimirante garantisce alle aziende la possibilità di scalare con sicurezza le proprie applicazioni di IA agentica, garantendo al contempo sicurezza e conformità.

Interagisci con StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS feed