UALink 联盟批准了 Ultra Accelerator Link 200G 1.0,这是一项满足不断增长的 AI 工作负载需求的开放标准。
- UALink联盟 正式批准其 Ultra Accelerator Link 200G1.0 规范,建立了大规模连接 AI 加速器的标准化方法。该开放标准旨在重塑目前由专有解决方案主导的格局。
行业领袖齐心协力推动开放标准
UALink 联盟成立于 2024 年 85 月,拥有超过 XNUMX 家成员公司,其中包括科技巨头 AMD、苹果、阿里巴巴、AWS、思科、谷歌、HPE、英特尔、Meta、微软和新思科技。该联盟的成立旨在为可扩展的 AI 互连解决方案创建一个开放的行业标准,以满足现代 AI 工作负载日益增长的需求。
技术规格和能力
该规范定义了一种低延迟、高带宽互连,可在单个AI计算舱内支持多达1,024个加速器。它每通道提供200 GT/s的传输速率,信令速率为212.5 GT/s以适应开销。UALink可配置为单通道(x1)、双通道(x2)或四通道(x4),其中四通道配置可实现800 GT/s的双向吞吐量。该系统针对4米以下的电缆长度进行了优化,使往返延迟小于1微秒。
该架构实现了四个硬件优化层:物理层(利用修改后的以太网组件)、数据链路层(将 64 字节的 flit 打包成 640 字节的单元)、事务层(实现压缩寻址)和协议层(实现加速器之间的直接内存操作)。
与现有的专有解决方案相比,UALink 具有显著优势,包括性能优化(实现 93% 的有效峰值带宽和确定性性能)、效率提升(降低功耗、缩小芯片面积并提高带宽效率)以及通过 UALinkSec 内置的安全功能。它还支持针对多租户工作负载的虚拟 Pod 分区。
UALink 1.0 与竞争解决方案
UALink 规范直接挑战了 NVIDIA 专有的 NVLink 技术,后者目前已发展到第五代。UALink 1.0 支持高达 1,024 个加速器的惊人规模,而 NVLink 5 则允许在双层交换架构中连接多达 576 个 GPU。就原始带宽而言,UALink 1.0 在整个系统中提供 819.2 TB/s 的总双向吞吐量,低于 NVLink 5 的 1036.8 TB/s。当前规范似乎比上一代 NVLink 4 更具竞争力,但 UALink 仍需缩小每 GPU 带宽和系统总吞吐量方面的差距,才能与 NVIDIA 的最新产品匹敌。
行业影响和未来展望
随着人工智能以前所未有的速度发展,对可扩展计算基础设施的需求日益增长,尤其是对于需要大量测试时间计算资源的推理工作负载,以及新型“推理模型”的不断涌现。可扩展互连解决方案必须快速发展,才能满足这些指数级增长的人工智能工作负载需求。
UALink 标准获得了超过 85 家主流科技公司的支持,涵盖芯片制造商、云服务提供商和系统集成商,其战略定位是挑战专有互连技术。广泛的行业支持构建了一个强大的生态系统,通过协作创新和竞争性定价,UALink 标准有望超越封闭式解决方案。随着成员公司积极开发基于此规范的产品,市场将很快迎来各种兼容 UALink 的解决方案,从而赋能下一代人工智能应用。该标准的开放性使其能够更快地迭代和改进,并有可能在未来几代产品中增强其与成熟专有技术的竞争优势。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅