Entreprise

Le consortium UALink finalise la spécification 1.0 pour les interconnexions d'accélérateurs d'IA

Le consortium UALink ratifie Ultra Accelerator Link 200G 1.0, une norme ouverte pour répondre aux besoins des charges de travail croissantes de l'IA.

Vue d'ensemble Consortium UALink a officiellement ratifié sa spécification Ultra Accelerator Link 200G1.0, établissant une approche standardisée pour connecter les accélérateurs d'IA à grande échelle. Cette norme ouverte vise à remodeler le paysage actuellement dominé par les solutions propriétaires.

Les leaders de l'industrie s'unissent derrière une norme ouverte

Créé en octobre 2024, le consortium UALink représente plus de 85 entreprises membres, dont les géants technologiques AMD, Apple, Alibaba, AWS, Cisco, Google, HPE, Intel, Meta, Microsoft et Synopsys. Le consortium a été créé pour créer une norme industrielle ouverte pour les solutions d'interconnexion d'IA évolutives, capables de répondre aux exigences croissantes des charges de travail d'IA modernes.

Spécifications techniques et capacités

La spécification définit une interconnexion à faible latence et haut débit prenant en charge jusqu'à 1,024 200 accélérateurs au sein d'un même module de calcul IA. Elle délivre 212.5 GT/s par voie, avec une signalisation à 1 GT/s pour compenser la surcharge. UALinks peut être configuré en configuration simple voie (x2), double voie (x4) ou quadruple voie (x800), une configuration à quatre voies atteignant 4 GT/s de débit bidirectionnel. Le système est optimisé pour des longueurs de câble inférieures à 1 mètres, permettant une latence aller-retour inférieure à XNUMX microseconde.

L'architecture implémente quatre couches optimisées pour le matériel : la couche physique (utilisant des composants Ethernet modifiés), la couche de liaison de données (regroupant des flits de 64 octets en unités de 640 octets), la couche de transaction (implémentant l'adressage compressé) et la couche de protocole (permettant des opérations de mémoire directes entre les accélérateurs).

UALink offre des avantages significatifs par rapport aux solutions propriétaires existantes, notamment l'optimisation des performances (atteignant 93 % de bande passante maximale effective avec des performances déterministes), des gains d'efficacité (consommation énergétique réduite, surface de puce plus petite et efficacité de bande passante accrue) et des fonctionnalités de sécurité intégrées grâce à UALinkSec. Il prend également en charge le partitionnement de pods virtuels pour les charges de travail multi-locataires.

UALink 1.0 vs. Solutions concurrentes

La spécification UALink remet directement en cause la technologie propriétaire NVLink de NVIDIA, actuellement dans sa cinquième génération. Alors qu'UALink 1.0 offre une évolutivité impressionnante avec jusqu'à 1,024 5 accélérateurs par pod, NVLink 576 autorise la connexion de jusqu'à 1.0 GPU dans une architecture commutée à deux niveaux. Concernant la bande passante brute, UALink 819.2 offre un débit bidirectionnel total de 5 To/s sur l'ensemble du système, ce qui est inférieur aux 1036.8 4 To/s de NVLink XNUMX. La spécification actuelle semble plus compétitive que la précédente génération NVLink XNUMX, UALink devant encore combler l'écart en termes de bande passante par GPU et de débit total du système pour égaler la dernière offre de NVIDIA. 

Impact sur l'industrie et perspectives d'avenir

Alors que l'IA progresse à un rythme sans précédent, la demande d'infrastructures de calcul évolutives s'intensifie, notamment pour les charges de travail d'inférence nécessitant des ressources de calcul massives en temps de test, avec l'émergence de nouveaux « modèles de raisonnement ». Les solutions d'interconnexion évolutives doivent évoluer rapidement pour répondre à la croissance exponentielle des charges de travail de l'IA. 

Bénéficiant du soutien de plus de 85 grandes entreprises technologiques, parmi lesquelles des fabricants de puces, des fournisseurs de cloud et des intégrateurs de systèmes, la norme UALink est stratégiquement positionnée pour concurrencer les technologies d'interconnexion propriétaires. Ce large soutien industriel crée un écosystème robuste capable de surpasser les solutions fermées grâce à l'innovation collaborative et à des prix compétitifs. Grâce au développement actif de produits basés sur cette spécification par les entreprises membres, le marché bénéficiera bientôt d'une gamme diversifiée de solutions compatibles avec UALink, ouvrant la voie à des applications d'IA de nouvelle génération. Le caractère ouvert de la norme permet des itérations et des améliorations plus rapides, ce qui pourrait accélérer sa compétitivité face aux technologies propriétaires établies dans les générations à venir.

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Divyansh Jain

Ingénieur MLOps et Machine Learning, spécialisé dans le traitement du langage naturel (TALN) et la formation à grande échelle. Chez Storage Review, je m'occupe des tests d'IA, de GPU et des charges de travail émergentes afin de fournir des informations pratiques et des analyses de performance.

Derniers Articles

Dell étend le stockage, le cloud et l'automatisation Edge pour alimenter les centres de données intelligents

Lors du salon DTW 2025, Dell a dévoilé des avancées significatives en matière de stockage, de cyber-résilience, d'automatisation du cloud privé et d'opérations de périphérie avec NativeEdge. (suite…)

Il y a 20 heures

AMD dévoile les cartes graphiques Threadripper 9000, Radeon R9700 et RX 9060 XT

AMD dévoile les processeurs Ryzen Threadripper 9000, le GPU Radeon AI PRO R9700 et le GPU RX 9060 XT au COMPUTEX 2025, élargissant ainsi…

Jour il ya 1

HPE déploie une pile d'IA améliorée avec cloud privé, SDK de stockage Alletra et prise en charge du GPU Blackwell

HPE met à jour son infrastructure d'IA avec des serveurs ProLiant, Private Cloud AI, Alletra SDK et la prise en charge d'OpsRamp pour RTX PRO 6000…

Il y a 2 jours

Au cœur de l'usine d'IA de Dell : nouveaux serveurs refroidis par liquide, GPU RTX Pro et solutions d'IA de bout en bout

Dell étend son usine d'IA avec NVIDIA, en ajoutant de nouveaux serveurs PowerEdge, une mise en réseau plus rapide et des services gérés pour l'adoption de l'IA en entreprise.

Il y a 3 jours

Dell dévoile la station de travail mobile Pro Max Plus équipée du processeur NPU AI-100 de Qualcomm

La nouvelle station de travail Pro Max Plus de Dell avec Qualcomm AI-100 NPU offre une inférence d'IA de niveau entreprise aux professionnels mobiles en périphérie.…

Il y a 3 jours

Intel élargit sa gamme Arc Pro avec les GPU B50 et B60, ciblant les charges de travail d'IA et de graphisme

Intel lancera les GPU Arc Pro B50 et B60 au Computex 2025. Ces GPU permettent une inférence IA avancée et des performances de station de travail…

Il y a 3 jours