全新 NVIDIA GB200 NVL72 系統透過連接 72 個 Blackwell GPU 和 36 個 Grace CPU,為 AI 系統設計樹立了新標準。
NVIDIA 將在即將舉行的 Hot Chips 2024 大會上展示其最新創新成果,屆時他們將展示其在資料中心效能和能源效率方面的進步。隨著價值數兆美元的資料中心運算市場不斷發展,NVIDIA 工程師將展示 NVIDIA Blackwell 平台、液體冷卻解決方案以及用於晶片設計的 AI 代理程式的開發成果。
在會議期間,NVIDIA 將重點介紹如何 英偉達布萊克威爾 該平台匯集了多種晶片,包括 Blackwell GPU、Grace CPU、BlueField DPU 和 CUDA 軟體,為跨行業的下一代人工智慧提供動力。 NVIDIA 表示,全新 GB200 NVL72 系統是多節點液冷機架規模解決方案,透過連接 72 個 Blackwell GPU 和 36 個 Grace CPU,為 AI 系統設計樹立了新標準。該系統將為生成式 AI 工作負載實現前所未有的低延遲推理,並將大型語言模型 (LLM) 的推理速度提高 30 倍。
“為布萊克威爾做好準備”
「NVIDIA Blackwell 是終極全端運算挑戰,」NVIDIA 的 Dave Salvator 在今天的部落格文章中表示。 “通過結合這些先進技術,我們正在重新定義人工智慧和加速計算性能的標準,同時顯著提高能源效率。”
除了晶片創新之外,NVIDIA 還專注於可以重新定義資料中心的冷卻技術。液體冷卻正在成為支援大規模人工智慧工作負載的關鍵要素,將成為討論的焦點。 NVIDIA 資料中心冷卻和基礎設施總監 Ali Heydari 將展示可改裝到現有風冷資料中心的混合液體冷卻解決方案。
除了這些硬體進步之外,NVIDIA 還在突破人工智慧驅動設計的界限。 NVIDIA 設計自動化研究總監 Mark Ren 將深入探討 AI 模型和基於代理的系統如何改變半導體設計。這些人工智慧工具透過自動執行單元簇優化和調試等任務來提高工程師的工作效率,從而使晶片設計更加高效。任正非表示:“人工智慧代理正在通過自主執行以前需要人工幹預的複雜任務來釋放新的可能性。”
Hot Chips 2024 將於 25 月 27 日至 XNUMX 日在史丹佛大學線上舉辦。與會者可以更深入地了解 NVIDIA 的最新突破以及它們如何塑造人工智慧和資料中心技術的未來。
有關 NVIDIA Blackwell 在 Hot Chips 2024 上發布的更多信息,請訪問 NVIDIA官方網站.
參與 StorageReview
電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | 的TikTok | RSS訂閱