Entreprise

La carte réseau Pensando Pollara 400 d'AMD offre programmabilité et performances aux réseaux d'IA

AMD lance le Pensando Pollara 400, une carte réseau AI 400 Gbit/s entièrement programmable conçue pour optimiser la communication GPU et accélérer les charges de travail de l'IA.

AMD a annoncé la disponibilité de la Pensando Pollara 400, la première carte réseau (NIC) IA entièrement programmable du marché. Conçue pour accélérer les charges de travail IA, cette solution innovante est compatible avec les normes UEC (Ultra Ethernet Consortium) en développement et optimisée pour améliorer la communication entre GPU dans les centres de données. La carte réseau IA Pollara 400 représente une avancée significative dans la construction d'infrastructures évolutives et performantes pour les charges de travail IA/ML, l'IA générative et les grands modèles de langage.

À mesure que l'IA évolue, les entreprises doivent relever le défi de développer des infrastructures informatiques similaires, offrant des performances optimales et la flexibilité nécessaire pour s'adapter aux exigences futures. L'un des facteurs clés de cette évolution est la mise à l'échelle efficace des réseaux de communication GPU intra-nœuds. L'engagement d'AMD à préserver le choix des clients et à réduire le coût total de possession (TCO) sans compromettre les performances est illustré par la carte réseau IA Pollara 400. Cette solution permet aux entreprises de créer une infrastructure IA évolutive tout en préservant la compatibilité avec un écosystème ouvert.

Accélérer les charges de travail de l'IA grâce à un réseau avancé

L'optimisation des performances des clusters d'IA est une priorité absolue pour les fournisseurs de services cloud, les hyperscalers et les entreprises. Cependant, de nombreuses organisations considèrent le réseau comme un goulot d'étranglement, limitant l'utilisation du GPU. Si la vitesse de transfert des données est essentielle, elle n'est bénéfique que si le réseau est optimisé pour répondre aux exigences des charges de travail d'IA modernes.

Spécification Détails
Bande passante maximale 400 Gbps
Facteur de forme Demi-hauteur, mi-longueur (HHHL)
Interface hôte PCIe Gen5.0x16
Interface Ethernet QSFP112 (série NRZ/PAM4)
Vitesses Ethernet 25/50/100/200/400 Gbps
Configurations Ethernet Prend en charge jusqu'à 4 ports :
1 x 400G
2 x 200G
4 x 100G
4 x 50G
4 x 25G
Direction MCTP sur SMBus

La carte réseau Pensando Pollara 400 AI répond à ces défis en offrant un équilibrage de charge intelligent, une gestion de la congestion, un basculement rapide et une reprise après incident. Ces fonctionnalités garantissent une utilisation optimale des ressources réseau et de calcul, permettant une disponibilité accrue, une exécution plus rapide des tâches et une fiabilité accrue à grande échelle. Face à la complexité et à la taille croissantes des charges de travail d'IA, la carte réseau Pollara 400 AI fournit les outils nécessaires pour éliminer les goulots d'étranglement et exploiter pleinement le potentiel de l'infrastructure IA.

Une solution programmable et prête pour l'avenir

La carte réseau IA Pollara 400 repose sur l'architecture P4 d'AMD, offrant un pipeline matériel entièrement programmable offrant une flexibilité inégalée. Cette programmabilité permet aux clients de s'adapter aux nouvelles normes, telles que celles définies par l'UEC, ou de créer des protocoles de transport personnalisés adaptés à leurs charges de travail spécifiques. Contrairement au matériel traditionnel, qui nécessite de nouvelles générations pour prendre en charge les nouvelles fonctionnalités, la Pollara 400 permet aux entreprises de mettre à niveau leur infrastructure IA sans attendre les mises à jour matérielles.

Les principales caractéristiques du Pollara 400 incluent la prise en charge de plusieurs protocoles de transport, tels que RoCEv2, UEC RDMA et d'autres protocoles Ethernet, garantissant ainsi la compatibilité avec diverses charges de travail. Des fonctionnalités avancées telles que la pulvérisation intelligente de paquets, la gestion des paquets désordonnés et la retransmission sélective optimisent l'utilisation de la bande passante et réduisent la latence, des éléments essentiels à l'entraînement et au déploiement de modèles d'IA de grande envergure. Le contrôle de congestion sensible au chemin et la détection rapide des pannes garantissent des performances proches de celles du réseau filaire et minimisent les temps d'inactivité du GPU, même en cas de congestion transitoire ou de panne réseau.

L'avantage de l'écosystème ouvert

L'approche écosystémique ouverte d'AMD garantit une compatibilité indépendante des fournisseurs, permettant aux entreprises de mettre en place une infrastructure d'IA répondant aux exigences actuelles tout en étant évolutive et programmable pour les besoins futurs. Cette stratégie réduit les dépenses d'investissement (CapEx) en supprimant le recours à des structures de commutation cellulaires coûteuses à large mémoire tampon, tout en garantissant des performances élevées.

La carte réseau Pensando Pollara 400 AI a déjà été validée dans certains des plus grands centres de données évolutifs au monde. Les fournisseurs de services cloud (CSP) ont choisi cette solution pour sa combinaison unique de programmabilité, de bande passante élevée, de faible latence et de fonctionnalités étendues. En permettant une infrastructure extensible au sein d'un écosystème ouvert, AMD aide les entreprises à pérenniser leurs environnements d'IA tout en leur offrant des gains de performances immédiats.

AMD Pensando

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Harold Fritt

Je suis dans l'industrie de la technologie depuis qu'IBM a créé Selectric. Ma formation, cependant, est l'écriture. J'ai donc décidé de sortir de l'avant-vente et de revenir à mes racines, en écrivant un peu mais en restant impliqué dans la technologie.

Derniers Articles

Dell étend le stockage, le cloud et l'automatisation Edge pour alimenter les centres de données intelligents

Lors du salon DTW 2025, Dell a dévoilé des avancées significatives en matière de stockage, de cyber-résilience, d'automatisation du cloud privé et d'opérations de périphérie avec NativeEdge. (suite…)

Il y a 9 heures

AMD dévoile les cartes graphiques Threadripper 9000, Radeon R9700 et RX 9060 XT

AMD dévoile les processeurs Ryzen Threadripper 9000, le GPU Radeon AI PRO R9700 et le GPU RX 9060 XT au COMPUTEX 2025, élargissant ainsi…

Il y a 21 heures

HPE déploie une pile d'IA améliorée avec cloud privé, SDK de stockage Alletra et prise en charge du GPU Blackwell

HPE met à jour son infrastructure d'IA avec des serveurs ProLiant, Private Cloud AI, Alletra SDK et la prise en charge d'OpsRamp pour RTX PRO 6000…

Jour il ya 1

Au cœur de l'usine d'IA de Dell : nouveaux serveurs refroidis par liquide, GPU RTX Pro et solutions d'IA de bout en bout

Dell étend son usine d'IA avec NVIDIA, en ajoutant de nouveaux serveurs PowerEdge, une mise en réseau plus rapide et des services gérés pour l'adoption de l'IA en entreprise.

Il y a 2 jours

Dell dévoile la station de travail mobile Pro Max Plus équipée du processeur NPU AI-100 de Qualcomm

La nouvelle station de travail Pro Max Plus de Dell avec Qualcomm AI-100 NPU offre une inférence d'IA de niveau entreprise aux professionnels mobiles en périphérie.…

Il y a 2 jours

Intel élargit sa gamme Arc Pro avec les GPU B50 et B60, ciblant les charges de travail d'IA et de graphisme

Intel lancera les GPU Arc Pro B50 et B60 au Computex 2025. Ces GPU permettent une inférence IA avancée et des performances de station de travail…

Il y a 2 jours