首页 企业版AI NVIDIA 在 Hot Chips 2024 上的表现如何

NVIDIA 在 Hot Chips 2024 上的表现如何

by 乔丹拉努斯

全新 NVIDIA GB200 NVL72 系统通过连接 72 个 Blackwell GPU 和 36 个 Grace CPU,为 AI 系统设计树立了新标准。

NVIDIA Grace Blackwell 计算托盘

NVIDIA 将在即将举行的 Hot Chips 2024 大会上展示其最新创新成果,展示其在数据中心性能和能源效率方面的进步。随着价值数万亿美元的数据中心计算市场的不断发展,NVIDIA 的工程师将展示 NVIDIA Blackwell 平台、液体冷却解决方案和用于芯片设计的 AI 代理方面的进展。

在会议期间,NVIDIA 将重点介绍 英伟达布莱克威尔 该平台整合了多种芯片,包括 Blackwell GPU、Grace CPU、BlueField DPU 和 CUDA 软件,为各行各业的下一代 AI 提供支持。据 NVIDIA 介绍,新的 GB200 NVL72 系统是一种多节点液冷机架级解决方案,通过连接 72 个 Blackwell GPU 和 36 个 Grace CPU,为 AI 系统设计树立了新标准。该系统将为生成 AI 工作负载实现前所未有的低延迟推理,大型语言模型 (LLM) 的推理速度最高可提高 30 倍。

“为布莱克威尔做好准备”

NVIDIA 的 Dave Salvator 在今天的一篇博文中表示:“NVIDIA Blackwell 是终极全栈计算挑战。通过整合这些先进技术,我们重新定义了人工智能和加速计算性能的标准,同时大幅提高了能源效率。”

NVIDIA Quantum InfiniBand 交换机

除了芯片创新,NVIDIA 还专注于可能重新定义数据中心的冷却技术。液体冷却正成为支持大规模 AI 工作负载的关键要素,将成为讨论的焦点。NVIDIA 数据中心冷却和基础设施总监 Ali Heydari 将展示可改装到现有风冷数据中心的混合液体冷却解决方案。

NVIDIA Spectrum Network 800Gbit 交换机

除了这些硬件方面的进步,NVIDIA 还在不断突破 AI 驱动设计的界限。NVIDIA 设计自动化研究总监 Mark Ren 将深入介绍 AI 模型和基于代理的系统如何改变半导体设计。这些 AI 工具通过自动执行单元簇优化和调试等任务来提高工程师的工作效率,从而提高芯片设计效率。Ren 表示:“AI 代理通过自主执行以前需要人工干预的复杂任务,正在开启新的可能性。”

 

NVIDIA NVLink 交换机

Hot Chips 2024 将于 25 月 27 日至 XNUMX 日在斯坦福大学和线上举行。与会者将有机会深入了解 NVIDIA 的最新突破以及它们如何塑造 AI 和数据中心技术的未来。

如需了解有关 NVIDIA Blackwell 在 Hot Chips 2024 上发布的更多信息,请访问 英伟达官网.

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅