StorageReview.com

AWS et NVIDIA étendent leur collaboration sur NVLink Fusion, Blackwell et AI Factories

AI  ◇  Entreprise

Lors de l'AWS re:Invent, NVIDIA et Amazon Web Services ont annoncé un partenariat renforcé axé sur les technologies d'interconnexion, l'infrastructure cloud, les modèles ouverts et l'IA physique. Cette collaboration approfondit l'intégration de NVIDIA avec la plateforme AWS, couvrant les puces personnalisées, la mise en réseau, les logiciels d'IA et la simulation robotique. L'accent est mis sur l'IA à l'échelle de la production et les exigences d'un cloud souverain.

NVLink Fusion pour AWS Custom Silicon et infrastructure d'IA de nouvelle génération

Un point clé de cette annonce est la prise en charge par AWS de NVIDIA NVLink Fusion. AWS proposera des licences NVLink Fusion pour la construction d'infrastructures d'IA personnalisées. AWS prévoit d'intégrer la technologie NVLink Fusion à sa vaste gamme de puces conçues sur mesure. Cela inclut les accélérateurs Trainium4 de nouvelle génération, destinés aux tâches d'inférence et à l'entraînement de modèles d'IA multi-agents. Grâce à NVIDIA NVLink Fusion, AWS connectera l'interconnexion verticale NVIDIA NVLink à l'architecture rack NVIDIA MGX et à ses puces personnalisées. L'objectif est d'améliorer les performances, de simplifier la conception des systèmes et d'accélérer la mise sur le marché des plateformes d'IA cloud de nouvelle génération.

AWS bénéficie également de l'écosystème de fournisseurs NVLink Fusion, qui propose une solution complète à l'échelle du rack, incluant rack, châssis, alimentation et sous-systèmes de refroidissement. Cet écosystème simplifie l'approvisionnement et l'intégration pour AWS lors de la construction d'une infrastructure haute densité optimisée pour l'IA. Trainium4 est conçu pour fonctionner de manière transparente avec NVLink et NVIDIA MGX. Ceci marque la première phase d'une collaboration NVLink Fusion multigénérationnelle entre NVIDIA et AWS. AWS a déjà déployé des racks NVIDIA MGX à grande échelle avec des GPU NVIDIA ; l'intégration de NVLink Fusion vise à standardiser et à rationaliser le déploiement et la gestion des systèmes sur différentes plateformes, combinant les puces AWS et le matériel NVIDIA.

De plus, AWS utilise différents processeurs Graviton capables de gérer un large éventail de charges de travail, aussi bien génériques que natives du cloud. Le système AWS Nitro joue un rôle essentiel en prenant en charge la virtualisation, la sécurité et le déchargement du plan de données, améliorant ainsi les performances et la protection globales des services AWS.

Le fondateur et PDG de NVIDIA, Jensen Huang, a présenté cette collaboration comme une réponse à la demande croissante de puissance de calcul GPU, alimentée par des modèles d'IA plus performants et une adoption accrue en entreprise. Il a décrit l'intégration de NVLink Fusion avec AWS Trainium4 comme un moyen de fusionner l'architecture évolutive de NVIDIA avec les puces personnalisées d'AWS afin de créer des plateformes accélérées de nouvelle génération, à l'origine de ce qu'il a qualifié de révolution industrielle de l'IA. Huang a déclaré que l'objectif est de rendre l'IA avancée plus accessible et de faire évoluer l'infrastructure mondiale vers une intelligence généralisée.

Matt Garman, PDG d'AWS, a souligné la solidité du partenariat de 15 ans entre les deux entreprises, précisant que cette collaboration fait progresser les infrastructures d'IA à grande échelle. Il a évoqué les avantages pour les clients, notamment des performances accrues, une efficacité améliorée et une évolutivité renforcée. M. Garman a insisté sur la prise en charge de NVIDIA NVLink Fusion par Trainium, Graviton et Nitro afin de débloquer de nouvelles fonctionnalités techniques et d'accélérer l'innovation pour les clients d'AWS.

Architecture NVIDIA Vera Rubin sur AWS

En matière de réseau, l'architecture NVIDIA Vera Rubin sur AWS prend en charge AWS Elastic Fabric Adapter et le système Nitro. Cette conception offre aux clients des options de réseau flexibles et robustes, tout en garantissant une compatibilité totale avec l'infrastructure cloud existante d'AWS et en accélérant le déploiement de nouveaux services d'IA.

Convergence de l'échelle et de la souveraineté avec Blackwell et AWS AI Factories

AWS élargit son portefeuille de calcul accéléré en y ajoutant l'architecture NVIDIA Blackwell, notamment les systèmes NVIDIA HGX B300 et les GPU NVIDIA GB300 NVL72 pour les clusters d'entraînement et d'inférence à grande échelle. De plus, Carte graphique NVIDIA RTX PRO 6000 Blackwell Server EditionLes services conçus pour les applications à forte intensité visuelle et graphique devraient bientôt être disponibles sur AWS.

Ces GPU constituent l'infrastructure de base d'AWS AI Factories. Cette nouvelle offre cloud d'IA s'adresse aux clients qui ont besoin d'une infrastructure d'IA dédiée, hébergée dans leurs propres datacenters et gérée par AWS. Ce modèle fournit une infrastructure d'IA de niveau cloud au sein d'installations contrôlées par le client. Les entreprises conservent ainsi la visibilité et la sécurité de leurs ressources d'IA dans leurs propres environnements.

Elle met également l'accent sur le contrôle des données en respectant les exigences locales de résidence des données. Ainsi, les informations sensibles restent confinées dans les limites géographiques spécifiées, conformément aux normes réglementaires, tout en garantissant le bon déroulement des opérations. Le modèle offre un accès à des plateformes avancées d'entraînement et d'inférence à grande échelle, permettant aux utilisateurs de développer, déployer et gérer efficacement des solutions d'IA complexes sur de vastes ensembles de données.

Engagement mondial

NVIDIA et AWS s'engagent à déployer des clouds d'IA souverains à l'échelle mondiale et à fournir des capacités d'IA avancées aux régions soumises à des réglementations strictes en matière d'IA souveraine. Grâce à AWS AI Factories, les deux entreprises prévoient de proposer une infrastructure d'IA sécurisée et souveraine offrant une capacité de calcul inégalée, tout en répondant aux exigences réglementaires et de souveraineté des données croissantes.

Pour les organismes du secteur public, AWS considère AI Factories comme une évolution majeure de la stratégie fédérale en matière de supercalcul et d'IA. Les clients peuvent combiner l'infrastructure cloud fiable, sécurisée et évolutive d'AWS avec les GPU NVIDIA Blackwell et la suite complète de calcul accéléré NVIDIA, notamment NVIDIA Spectrum-X Commutateurs Ethernet.

L’objectif est de créer un système unifié permettant aux clients d’accéder à des services et des fonctionnalités d’IA avancées, et de les aider à entraîner et à déployer des modèles de très grande taille à grande échelle. De plus, les organisations conservent un contrôle strict sur leurs données propriétaires, conformément à la réglementation locale.

Logiciels NVIDIA sur AWS : Simplifier l’expérience des développeurs et des données

NVIDIA et AWS collaborent également sur les couches logicielles et de données afin d'accélérer le traitement des données non structurées et de gérer les cycles de vie des agents.

Amazon OpenSearch Service propose désormais une accélération GPU sans serveur pour la création d'index vectoriels, grâce à NVIDIA cuVS, une bibliothèque open source dédiée à la recherche et au clustering vectoriels accélérés par GPU. Cette intégration fait des GPU le moteur par défaut pour les charges de travail de données non structurées et fortement vectorielles.

Les premiers utilisateurs constatent des améliorations significatives dans leurs flux de travail, notamment une indexation vectorielle jusqu'à dix fois plus rapide, ce qui accroît considérablement leur efficacité. De plus, cette nouvelle approche coûte environ quatre fois moins cher que les méthodes traditionnelles, générant ainsi des économies substantielles. Ces avancées sont considérées comme une véritable révolution, offrant aux utilisateurs à la fois rapidité et avantages économiques.

Ces améliorations en termes de performances et de coûts contribuent à réduire la latence de recherche, à accélérer les processus d'écriture et à optimiser le débit pour les modèles d'IA dynamiques, tels que la génération augmentée par la recherche, où l'indexation vectorielle rapide est essentielle. AWS est le premier grand fournisseur de cloud à proposer l'indexation vectorielle sans serveur, optimisée par les GPU NVIDIA.

Pour faire passer les agents d'IA de la phase de preuve de concept à la production, les clients ont besoin de données de performance, d'outils d'optimisation et d'une gestion évolutive.

NVIDIA et AWS s'associent pour créer une solution complète de bout en bout en intégrant plusieurs composants clés. Cette collaboration vise à simplifier les processus de développement, de gestion et d'optimisation des agents sur leurs plateformes respectives.

Au cœur de cette initiative se trouvent les agents Strands, conçus pour faciliter la création et la gestion d'agents. Le kit d'outils NVIDIA NeMo Agent Toolkit les complète en fournissant des outils avancés pour le profilage approfondi, l'optimisation des performances et le réglage fin, garantissant ainsi un déploiement efficace. Parallèlement, Amazon Bedrock AgentCore offre une infrastructure sécurisée et évolutive pour les agents au sein de l'environnement AWS, permettant des opérations fiables pour l'ensemble des applications. Ensemble, ces éléments sont conçus pour assurer une transition fluide des prototypes vers des agents d'IA prêts pour la production, observables et évolutifs.

Ce partenariat logiciel élargi s'appuie sur les intégrations NVIDIA existantes sur AWS, notamment les microservices NVIDIA NIM et des frameworks tels que NVIDIA Riva pour la reconnaissance vocale et NVIDIA BioNeMo pour les charges de travail scientifiques. Ces fonctionnalités, combinées au développement et au déploiement de modèles sur Amazon SageMaker et Amazon Bedrock, sont conçues pour accélérer le déploiement d'applications d'IA agentielle, d'IA vocale et scientifiques, tout en utilisant les services AWS que vous connaissez déjà.

Accélération de l'IA physique et de la robotique sur AWS

Cette collaboration s'étend également à l'IA physique et à la robotique, où l'entraînement et le déploiement de modèles robotiques dépendent d'ensembles de données de haute qualité et de cadres de simulation robustes.

Les modèles de base du monde NVIDIA Cosmos (WFM) sont désormais disponibles sous forme de microservices NVIDIA NIM sur Amazon EKS. Les clients peuvent ainsi exécuter des charges de travail de contrôle et de simulation robotique en temps réel dans un environnement cloud natif basé sur Kubernetes, garantissant fiabilité et flexibilité.

Pour les tâches par lots et hors ligne, comme la génération de données synthétiques à grande échelle, les modules Cosmos WFM sont également disponibles sous forme de conteneurs sur AWS Batch. Ceci permet de gérer des flux de travail à haut débit pour la génération à grande échelle de scénarios et d'états du monde réel variés.

Les états du monde générés par Cosmos peuvent servir à entraîner et à valider les comportements des robots dans des environnements de simulation et d'apprentissage open source tels que NVIDIA Isaac Sim et Isaac Lab. Ce processus crée un pipeline complet qui facilite les différentes phases de développement et de test. Dans un premier temps, les modèles de monde (WFM) de Cosmos génèrent des environnements structurés et diversifiés, offrant ainsi un large éventail de scénarios d'évaluation.

Ensuite, Isaac Sim et Isaac Lab simulent les systèmes et politiques robotiques au sein de ces environnements. Cette phase de simulation permet de tester et d'affiner en profondeur les comportements des robots dans un cadre contrôlé. Enfin, les modèles sont validés par simulation avant leur déploiement sur des robots réels. Cette approche minimise les risques et réduit les coûts liés aux tests itératifs, garantissant ainsi un cycle de développement plus fiable et plus efficace.

Plusieurs entreprises de robotique utilisent déjà la plateforme NVIDIA Isaac sur AWS tout au long du cycle de développement de leurs robots. Parmi elles figurent Agility Robotics, Agile Robots, ANYbotics, Diligent Robotics, Dyna Robotics, Field AI, Haply Robotics, Lightwheel, RIVR et Skild AI. Leurs cas d'utilisation vont de la collecte, du stockage et du traitement des données générées par les robots aux tâches d'entraînement et de simulation nécessaires au déploiement à grande échelle d'applications concrètes.

Collaboration à long terme et positionnement sectoriel

Ces annonces élargies s'appuient sur la collaboration de longue date entre AWS et NVIDIA. NVIDIA a récemment reçu le prix AWS Global GenAI Infrastructure and Data Partner of the Year. Ce prix récompense les partenaires technologiques possédant la compétence AWS en IA générative, et plus particulièrement ceux qui prennent en charge les plongements vectoriels, le stockage et la gestion des données, ainsi que la génération de données synthétiques pour de multiples formes et formats de données.

Cette collaboration renforcée permet à AWS et NVIDIA de proposer des plateformes d'IA cloud étroitement intégrées. Ces plateformes visent à répondre aux exigences de performance et de souveraineté, tout en offrant aux entreprises une transition plus simple entre leurs projets d'IA expérimentaux et les déploiements de production à grande échelle.

S'engager avec StorageReview

Inscrivez-vous à notre infolettre |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Harold Fritt

Je suis dans l'industrie de la technologie depuis qu'IBM a créé Selectric. Ma formation, cependant, est l'écriture. J'ai donc décidé de sortir de l'avant-vente et de revenir à mes racines, en écrivant un peu mais en restant impliqué dans la technologie.