Accueil EntrepriseAI La superpuce NVIDIA Grace Hopper domine les benchmarks d'inférence MLPerf

La superpuce NVIDIA Grace Hopper domine les benchmarks d'inférence MLPerf

by Jordan Ranous

NVIDIA a fait sensation dans le monde de l'intelligence artificielle (IA) et du calcul haute performance avec son dernier dévoilement : la superpuce NVIDIA GH200 Grace Hopper. Cette offre récente a montré des performances exceptionnelles dans les tests MLPerf, démontrant les prouesses de NVIDIA en matière d'IA cloud et de pointe.

NVIDIA a fait sensation dans le monde de l'intelligence artificielle (IA) et du calcul haute performance avec son dernier dévoilement : la superpuce NVIDIA GH200 Grace Hopper. Cette offre récente a montré des performances exceptionnelles dans les tests MLPerf, démontrant les prouesses de NVIDIA en matière d'IA cloud et de pointe.

Super puce NVIDIA Grace Hopper

Une superpuce qui en dit long

La Superchip GH200 n’est pas n’importe quelle puce ordinaire. Il combine de manière unique un GPU Hopper avec un CPU Grace, offrant une mémoire, une bande passante accrue et la possibilité d'ajuster automatiquement la puissance entre le CPU et le GPU pour des performances optimales. Cette intégration innovante permet à la puce d'atteindre un équilibre délicat entre puissance et performances, garantissant que les applications d'IA obtiennent les ressources dont elles ont besoin quand elles en ont besoin.

Résultats MLPerf exceptionnels

Les benchmarks MLPerf sont une norme industrielle respectée, et le GH200 de NVIDIA n'a pas déçu. Non seulement la superpuce a effectué tous les tests d'inférence des centres de données, mais elle a également démontré la polyvalence de la plate-forme d'IA de NVIDIA, étendant sa portée des opérations cloud aux limites du réseau.

De plus, les GPU H100 de NVIDIA ne sont pas en reste non plus. Les systèmes HGX H100, équipés de huit GPU H100, ont présenté un débit supérieur dans tous les tests d'inférence MLPerf. Cela met en évidence l'immense potentiel et les capacités des GPU H100, en particulier pour des tâches telles que la vision par ordinateur, la reconnaissance vocale, l'imagerie médicale, les systèmes de recommandation et les grands modèles de langage (LLM).

TensorRT-LLM : amplifier les performances d'inférence

NVIDIA a toujours été à la pointe de l'innovation continue, et le TensorRT-LLM est un témoignage de cet héritage. Ce logiciel d'IA générative améliore l'inférence et se présente sous la forme d'une bibliothèque open source. Même s'il n'a pas été soumis à MLPerf à temps pour l'évaluation d'août, il est prometteur, permettant aux utilisateurs d'amplifier les performances de leurs GPU H100 sans encourir de coûts supplémentaires. Des partenaires tels que Meta, Cohere et Grammarly ont bénéficié des efforts de NVIDIA pour améliorer l'inférence LLM, réaffirmant ainsi l'importance de tels développements logiciels dans le domaine de l'IA.

GPU L4 : relier les serveurs grand public et les performances

Avec les derniers benchmarks MLPerf, les GPU L4 ont affiché des performances louables sur une myriade de charges de travail. Ces GPU, lorsqu'ils sont placés dans des accélérateurs compacts, ont démontré des performances jusqu'à six fois plus efficaces que les processeurs dotés de puissances nominales plus élevées. L'introduction de moteurs multimédias dédiés, en collaboration avec le logiciel CUDA, donne au GPU L4 un avantage, notamment dans les tâches de vision par ordinateur.

Repousser les limites : Edge Computing et plus encore

Les progrès ne se limitent pas au seul cloud computing. L'accent mis par NVIDIA sur l'informatique de pointe est évident avec le système sur module Jetson Orin, qui présente des améliorations de performances allant jusqu'à 84 % par rapport à ses versions précédentes en matière de détection d'objets.

MLPerf : une norme d'analyse comparative transparente

MLPerf continue d'être une référence objective sur laquelle les utilisateurs du monde entier s'appuient pour prendre des décisions d'achat. L'inclusion de géants des services cloud comme Microsoft Azure et Oracle Cloud Infrastructure, ainsi que de fabricants de systèmes renommés comme Dell, Lenovo et Supermicro, souligne l'importance de MLPerf dans le secteur.

En conclusion, les récentes performances de NVIDIA dans les benchmarks MLPerf renforcent sa position de leader dans le secteur de l'IA. Avec un vaste écosystème, une innovation logicielle continue et un engagement à fournir des performances de haute qualité, NVIDIA façonne effectivement l'avenir de l'IA.

Pour une plongée technique plus approfondie dans les réalisations de NVIDIA, reportez-vous au lien blog technique. Ceux qui souhaitent reproduire le succès de NVIDIA en matière d'analyse comparative peuvent accéder au logiciel depuis le Dépôt MLPerf et les terres parsemées de Centre logiciel NVIDIA NGC.

S'engager avec StorageReview 

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS