Le consortium UALink ratifie Ultra Accelerator Link 200G 1.0, une norme ouverte pour répondre aux besoins des charges de travail croissantes de l'IA.
Vue d'ensemble Consortium UALink a officiellement ratifié sa spécification Ultra Accelerator Link 200G1.0, établissant une approche standardisée pour connecter les accélérateurs d'IA à grande échelle. Cette norme ouverte vise à remodeler le paysage actuellement dominé par les solutions propriétaires.
Créé en octobre 2024, le consortium UALink représente plus de 85 entreprises membres, dont les géants technologiques AMD, Apple, Alibaba, AWS, Cisco, Google, HPE, Intel, Meta, Microsoft et Synopsys. Le consortium a été créé pour créer une norme industrielle ouverte pour les solutions d'interconnexion d'IA évolutives, capables de répondre aux exigences croissantes des charges de travail d'IA modernes.
La spécification définit une interconnexion à faible latence et haut débit prenant en charge jusqu'à 1,024 200 accélérateurs au sein d'un même module de calcul IA. Elle délivre 212.5 GT/s par voie, avec une signalisation à 1 GT/s pour compenser la surcharge. UALinks peut être configuré en configuration simple voie (x2), double voie (x4) ou quadruple voie (x800), une configuration à quatre voies atteignant 4 GT/s de débit bidirectionnel. Le système est optimisé pour des longueurs de câble inférieures à 1 mètres, permettant une latence aller-retour inférieure à XNUMX microseconde.
L'architecture implémente quatre couches optimisées pour le matériel : la couche physique (utilisant des composants Ethernet modifiés), la couche de liaison de données (regroupant des flits de 64 octets en unités de 640 octets), la couche de transaction (implémentant l'adressage compressé) et la couche de protocole (permettant des opérations de mémoire directes entre les accélérateurs).
UALink offre des avantages significatifs par rapport aux solutions propriétaires existantes, notamment l'optimisation des performances (atteignant 93 % de bande passante maximale effective avec des performances déterministes), des gains d'efficacité (consommation énergétique réduite, surface de puce plus petite et efficacité de bande passante accrue) et des fonctionnalités de sécurité intégrées grâce à UALinkSec. Il prend également en charge le partitionnement de pods virtuels pour les charges de travail multi-locataires.
La spécification UALink remet directement en cause la technologie propriétaire NVLink de NVIDIA, actuellement dans sa cinquième génération. Alors qu'UALink 1.0 offre une évolutivité impressionnante avec jusqu'à 1,024 5 accélérateurs par pod, NVLink 576 autorise la connexion de jusqu'à 1.0 GPU dans une architecture commutée à deux niveaux. Concernant la bande passante brute, UALink 819.2 offre un débit bidirectionnel total de 5 To/s sur l'ensemble du système, ce qui est inférieur aux 1036.8 4 To/s de NVLink XNUMX. La spécification actuelle semble plus compétitive que la précédente génération NVLink XNUMX, UALink devant encore combler l'écart en termes de bande passante par GPU et de débit total du système pour égaler la dernière offre de NVIDIA.
Alors que l'IA progresse à un rythme sans précédent, la demande d'infrastructures de calcul évolutives s'intensifie, notamment pour les charges de travail d'inférence nécessitant des ressources de calcul massives en temps de test, avec l'émergence de nouveaux « modèles de raisonnement ». Les solutions d'interconnexion évolutives doivent évoluer rapidement pour répondre à la croissance exponentielle des charges de travail de l'IA.
Bénéficiant du soutien de plus de 85 grandes entreprises technologiques, parmi lesquelles des fabricants de puces, des fournisseurs de cloud et des intégrateurs de systèmes, la norme UALink est stratégiquement positionnée pour concurrencer les technologies d'interconnexion propriétaires. Ce large soutien industriel crée un écosystème robuste capable de surpasser les solutions fermées grâce à l'innovation collaborative et à des prix compétitifs. Grâce au développement actif de produits basés sur cette spécification par les entreprises membres, le marché bénéficiera bientôt d'une gamme diversifiée de solutions compatibles avec UALink, ouvrant la voie à des applications d'IA de nouvelle génération. Le caractère ouvert de la norme permet des itérations et des améliorations plus rapides, ce qui pourrait accélérer sa compétitivité face aux technologies propriétaires établies dans les générations à venir.
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS
Lors du salon DTW 2025, Dell a dévoilé des avancées significatives en matière de stockage, de cyber-résilience, d'automatisation du cloud privé et d'opérations de périphérie avec NativeEdge. (suite…)
AMD dévoile les processeurs Ryzen Threadripper 9000, le GPU Radeon AI PRO R9700 et le GPU RX 9060 XT au COMPUTEX 2025, élargissant ainsi…
HPE met à jour son infrastructure d'IA avec des serveurs ProLiant, Private Cloud AI, Alletra SDK et la prise en charge d'OpsRamp pour RTX PRO 6000…
Dell étend son usine d'IA avec NVIDIA, en ajoutant de nouveaux serveurs PowerEdge, une mise en réseau plus rapide et des services gérés pour l'adoption de l'IA en entreprise.
La nouvelle station de travail Pro Max Plus de Dell avec Qualcomm AI-100 NPU offre une inférence d'IA de niveau entreprise aux professionnels mobiles en périphérie.…
Intel lancera les GPU Arc Pro B50 et B60 au Computex 2025. Ces GPU permettent une inférence IA avancée et des performances de station de travail…