Entreprise

La carte réseau Pensando Pollara 400 d'AMD offre programmabilité et performances aux réseaux d'IA

AMD a annoncé la disponibilité de la Pensando Pollara 400, la première carte réseau (NIC) IA entièrement programmable du marché. Conçue pour accélérer les charges de travail IA, cette solution innovante est compatible avec les normes UEC (Ultra Ethernet Consortium) en développement et optimisée pour améliorer la communication entre GPU dans les centres de données. La carte réseau IA Pollara 400 représente une avancée significative dans la construction d'infrastructures évolutives et performantes pour les charges de travail IA/ML, l'IA générative et les grands modèles de langage.

À mesure que l'IA évolue, les entreprises doivent relever le défi de développer des infrastructures informatiques similaires, offrant des performances optimales et la flexibilité nécessaire pour s'adapter aux exigences futures. L'un des facteurs clés de cette évolution est la mise à l'échelle efficace des réseaux de communication GPU intra-nœuds. L'engagement d'AMD à préserver le choix des clients et à réduire le coût total de possession (TCO) sans compromettre les performances est illustré par la carte réseau IA Pollara 400. Cette solution permet aux entreprises de créer une infrastructure IA évolutive tout en préservant la compatibilité avec un écosystème ouvert.

Accélérer les charges de travail de l'IA grâce à un réseau avancé

L'optimisation des performances des clusters d'IA est une priorité absolue pour les fournisseurs de services cloud, les hyperscalers et les entreprises. Cependant, de nombreuses organisations considèrent le réseau comme un goulot d'étranglement, limitant l'utilisation du GPU. Si la vitesse de transfert des données est essentielle, elle n'est bénéfique que si le réseau est optimisé pour répondre aux exigences des charges de travail d'IA modernes.

Spécifications DÉTAILS
Bande passante maximale 400 Gbps
Facteur de forme Demi-hauteur, mi-longueur (HHHL)
Interface hôte PCIe Gen5.0x16
Interface Ethernet QSFP112 (série NRZ/PAM4)
Vitesses Ethernet 25/50/100/200/400 Gbps
Configurations Ethernet Prend en charge jusqu'à 4 ports :
1 x 400G
2 x 200G
4 x 100G
4 x 50G
4 x 25G
le direction MCTP sur SMBus

La carte réseau Pensando Pollara 400 AI répond à ces défis en offrant un équilibrage de charge intelligent, une gestion de la congestion, un basculement rapide et une reprise après incident. Ces fonctionnalités garantissent une utilisation optimale des ressources réseau et de calcul, permettant une disponibilité accrue, une exécution plus rapide des tâches et une fiabilité accrue à grande échelle. Face à la complexité et à la taille croissantes des charges de travail d'IA, la carte réseau Pollara 400 AI fournit les outils nécessaires pour éliminer les goulots d'étranglement et exploiter pleinement le potentiel de l'infrastructure IA.

Une solution programmable et prête pour l'avenir

La carte réseau IA Pollara 400 repose sur l'architecture P4 d'AMD, offrant un pipeline matériel entièrement programmable offrant une flexibilité inégalée. Cette programmabilité permet aux clients de s'adapter aux nouvelles normes, telles que celles définies par l'UEC, ou de créer des protocoles de transport personnalisés adaptés à leurs charges de travail spécifiques. Contrairement au matériel traditionnel, qui nécessite de nouvelles générations pour prendre en charge les nouvelles fonctionnalités, la Pollara 400 permet aux entreprises de mettre à niveau leur infrastructure IA sans attendre les mises à jour matérielles.

Les principales caractéristiques du Pollara 400 incluent la prise en charge de plusieurs protocoles de transport, tels que RoCEv2, UEC RDMA et d'autres protocoles Ethernet, garantissant ainsi la compatibilité avec diverses charges de travail. Des fonctionnalités avancées telles que la pulvérisation intelligente de paquets, la gestion des paquets désordonnés et la retransmission sélective optimisent l'utilisation de la bande passante et réduisent la latence, des éléments essentiels à l'entraînement et au déploiement de modèles d'IA de grande envergure. Le contrôle de congestion sensible au chemin et la détection rapide des pannes garantissent des performances proches de celles du réseau filaire et minimisent les temps d'inactivité du GPU, même en cas de congestion transitoire ou de panne réseau.

L'avantage de l'écosystème ouvert

L'approche écosystémique ouverte d'AMD garantit une compatibilité indépendante des fournisseurs, permettant aux entreprises de mettre en place une infrastructure d'IA répondant aux exigences actuelles tout en étant évolutive et programmable pour les besoins futurs. Cette stratégie réduit les dépenses d'investissement (CapEx) en supprimant le recours à des structures de commutation cellulaires coûteuses à large mémoire tampon, tout en garantissant des performances élevées.

La carte réseau Pensando Pollara 400 AI a déjà été validée dans certains des plus grands centres de données évolutifs au monde. Les fournisseurs de services cloud (CSP) ont choisi cette solution pour sa combinaison unique de programmabilité, de bande passante élevée, de faible latence et de fonctionnalités étendues. En permettant une infrastructure extensible au sein d'un écosystème ouvert, AMD aide les entreprises à pérenniser leurs environnements d'IA tout en leur offrant des gains de performances immédiats.

AMD Pensando

S'engager avec StorageReview

Bulletin d'information (en anglais) |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Harold Fritt

Je suis dans l'industrie de la technologie depuis qu'IBM a créé Selectric. Ma formation, cependant, est l'écriture. J'ai donc décidé de sortir de l'avant-vente et de revenir à mes racines, en écrivant un peu mais en restant impliqué dans la technologie.

Derniers Articles

Alloy présente des plaques froides monoblocs et étanches qui refroidissent chaque composant

Alloy Enterprises a introduit des plaques froides monoblocs et étanches qui assurent un refroidissement liquide direct (DLC) à chaque composant.

Il y a 4 jours

Chilldyne rachetée par Daikin Applied Americas

Daikin Applied Americas a fait l'acquisition de Chilldyne, un fabricant de systèmes de refroidissement liquide à pression négative directement sur la puce.

Il y a 5 jours

Veeam apporte l'intelligence des sauvegardes au SOC grâce à Microsoft Sentinel

L'application Veeam pour Microsoft Sentinel améliore la visibilité du SOC en unifiant les informations de sauvegarde et de sécurité pour détecter et réagir plus efficacement…

Il y a 6 jours

NVIDIA annonce des partenariats avec des leaders de l'industrie coréenne pour renforcer l'infrastructure d'IA du pays.

NVIDIA a annoncé des collaborations avec des leaders de l'industrie coréenne pour développer l'infrastructure d'IA du pays en déployant plus de 500 millions de GPU NVIDIA.

Il y a 1 semaine

HPE élargit le portefeuille de solutions de calcul IA de NVIDIA pour une IA sécurisée et évolutive

HPE étend NVIDIA AI Computing by HPE pour fournir une infrastructure d'IA sécurisée et évolutive aux gouvernements, aux entreprises et aux usines d'IA.

Il y a 1 semaine

QNAP enrichit sa gamme TBS-h574TX avec un NASbook 100% Flash pour les flux de travail créatifs

Nouveaux modèles de 9.6 To et 19.2 To avec SSD E1.S préinstallés destinés aux professionnels des médias, désormais disponibles en configurations Core i5 et i3.

il y a 2 semaines