À propos Entreprise La carte réseau Pensando Pollara 400 d'AMD offre programmabilité et performances aux réseaux d'IA

La carte réseau Pensando Pollara 400 d'AMD offre programmabilité et performances aux réseaux d'IA

by Harold Fritt

AMD lance le Pensando Pollara 400, une carte réseau AI 400 Gbit/s entièrement programmable conçue pour optimiser la communication GPU et accélérer les charges de travail de l'IA.

AMD a annoncé la disponibilité de la Pensando Pollara 400, la première carte réseau (NIC) IA entièrement programmable du marché. Conçue pour accélérer les charges de travail IA, cette solution innovante est compatible avec les normes UEC (Ultra Ethernet Consortium) en développement et optimisée pour améliorer la communication entre GPU dans les centres de données. La carte réseau IA Pollara 400 représente une avancée significative dans la construction d'infrastructures évolutives et performantes pour les charges de travail IA/ML, l'IA générative et les grands modèles de langage.

Pensando Pollara 400

À mesure que l'IA évolue, les entreprises doivent relever le défi de développer des infrastructures informatiques similaires, offrant des performances optimales et la flexibilité nécessaire pour s'adapter aux exigences futures. L'un des facteurs clés de cette évolution est la mise à l'échelle efficace des réseaux de communication GPU intra-nœuds. L'engagement d'AMD à préserver le choix des clients et à réduire le coût total de possession (TCO) sans compromettre les performances est illustré par la carte réseau IA Pollara 400. Cette solution permet aux entreprises de créer une infrastructure IA évolutive tout en préservant la compatibilité avec un écosystème ouvert.

Accélérer les charges de travail de l'IA grâce à un réseau avancé

L'optimisation des performances des clusters d'IA est une priorité absolue pour les fournisseurs de services cloud, les hyperscalers et les entreprises. Cependant, de nombreuses organisations considèrent le réseau comme un goulot d'étranglement, limitant l'utilisation du GPU. Si la vitesse de transfert des données est essentielle, elle n'est bénéfique que si le réseau est optimisé pour répondre aux exigences des charges de travail d'IA modernes.

Spécification Détails
Bande passante maximale 400 Gbps
Facteur de forme Demi-hauteur, mi-longueur (HHHL)
Interface hôte PCIe Gen5.0x16
Interface Ethernet QSFP112 (série NRZ/PAM4)
Vitesses Ethernet 25/50/100/200/400 Gbps
Configurations Ethernet Prend en charge jusqu'à 4 ports :
1 x 400G
2 x 200G
4 x 100G
4 x 50G
4 x 25G
Direction MCTP sur SMBus

La carte réseau Pensando Pollara 400 AI répond à ces défis en offrant un équilibrage de charge intelligent, une gestion de la congestion, un basculement rapide et une reprise après incident. Ces fonctionnalités garantissent une utilisation optimale des ressources réseau et de calcul, permettant une disponibilité accrue, une exécution plus rapide des tâches et une fiabilité accrue à grande échelle. Face à la complexité et à la taille croissantes des charges de travail d'IA, la carte réseau Pollara 400 AI fournit les outils nécessaires pour éliminer les goulots d'étranglement et exploiter pleinement le potentiel de l'infrastructure IA.

Une solution programmable et prête pour l'avenir

La carte réseau IA Pollara 400 repose sur l'architecture P4 d'AMD, offrant un pipeline matériel entièrement programmable offrant une flexibilité inégalée. Cette programmabilité permet aux clients de s'adapter aux nouvelles normes, telles que celles définies par l'UEC, ou de créer des protocoles de transport personnalisés adaptés à leurs charges de travail spécifiques. Contrairement au matériel traditionnel, qui nécessite de nouvelles générations pour prendre en charge les nouvelles fonctionnalités, la Pollara 400 permet aux entreprises de mettre à niveau leur infrastructure IA sans attendre les mises à jour matérielles.

Les principales caractéristiques du Pollara 400 incluent la prise en charge de plusieurs protocoles de transport, tels que RoCEv2, UEC RDMA et d'autres protocoles Ethernet, garantissant ainsi la compatibilité avec diverses charges de travail. Des fonctionnalités avancées telles que la pulvérisation intelligente de paquets, la gestion des paquets désordonnés et la retransmission sélective optimisent l'utilisation de la bande passante et réduisent la latence, des éléments essentiels à l'entraînement et au déploiement de modèles d'IA de grande envergure. Le contrôle de congestion sensible au chemin et la détection rapide des pannes garantissent des performances proches de celles du réseau filaire et minimisent les temps d'inactivité du GPU, même en cas de congestion transitoire ou de panne réseau.

L'avantage de l'écosystème ouvert

L'approche écosystémique ouverte d'AMD garantit une compatibilité indépendante des fournisseurs, permettant aux entreprises de mettre en place une infrastructure d'IA répondant aux exigences actuelles tout en étant évolutive et programmable pour les besoins futurs. Cette stratégie réduit les dépenses d'investissement (CapEx) en supprimant le recours à des structures de commutation cellulaires coûteuses à large mémoire tampon, tout en garantissant des performances élevées.

La carte réseau Pensando Pollara 400 AI a déjà été validée dans certains des plus grands centres de données évolutifs au monde. Les fournisseurs de services cloud (CSP) ont choisi cette solution pour sa combinaison unique de programmabilité, de bande passante élevée, de faible latence et de fonctionnalités étendues. En permettant une infrastructure extensible au sein d'un écosystème ouvert, AMD aide les entreprises à pérenniser leurs environnements d'IA tout en leur offrant des gains de performances immédiats.

AMD Pensando

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS