存儲評論網

戴爾與 CoreWeave 合作推出首款 NVIDIA GB300 NVL72

AI  ◇  企業

戴爾科技集團與 CoreWeave 緊密合作,宣佈業界首款 NVIDIA GB300 NVL72 系統正式出貨。此前,戴爾已率先成為首家出貨 NVIDIA GB200 的供應商,這一里程碑式的合作進一步鞏固了其在 AI 基礎架構領域的領先地位。領先的 AI 雲端服務供應商 (CSP) CoreWeave 成為首家部署 NVIDIA GB300 NVL72 的超大規模資料中心營運商。這是一款液冷式機架級 AI 系統,專為最嚴苛的企業級工作負載而設計。

戴爾 coreweave gb300 機架

這項成就是戴爾、CoreWeave 和 NVIDIA 之間緊密合作的結果,得益於 戴爾 AI 工廠與 NVIDIA 合作戴爾 AI Factory 提供全面、安全的 AI 解決方案,以滿足現代企業不斷變化的需求,使企業能夠充滿信心地加速其 AI 計劃。

利用 CoreWeave 釋放企業潛力

CoreWeave 部署搭載 NVIDIA GB300 NVL72 的戴爾整合式機架,標誌著雲端 AI 服務的可擴充性和效能實現了顯著提升。解決方案採用液冷式戴爾整合式機架可擴充系統,由 PowerEdge XE9712 伺服器.每個機架配備 72 個 NVIDIA Blackwell Ultra GPU 和 36 個基於 Arm 的 NVIDIA Grace CPU,為新一代 AI 工作負載提供堅實的基礎。

該系統的核心是 NVIDIA Blackwell Ultra GPU,其 AI 運算 FLOPS 比上一代產品高出 1.5 倍,因此能夠更快、更有效率地處理複雜模型。該系統還擴展了 HBM3e 內存,每機架可提供高達 21TB 的高頻寬 GPU 內存,是上一代 GB1.5 NVL200 的 72 倍。記憶體的大幅提升支援更大的批次大小和更複雜的模型,這對於最大限度地提高 AI 推理和推斷任務的吞吐量至關重要。

第五代 NVIDIA NVLink 技術提供高達 130TB/s 的聚合頻寬,確保系統中每個 GPU 之間實現無縫高速通訊。這種互聯互通水平對於 AI 模型(尤其是大規模運行的模型)實現峰值性能至關重要。

下一代 InfiniBand 進一步增強了網路效能, NVIDIA Quantum-X800 InfiniBand 交換器 NVIDIA ConnectX-8 超級網路卡 為每個 GPU 提供每秒 800 千兆位元 (Gb/s) 的專用連線。此架構可確保一流的遠端直接記憶體存取 (RDMA),從而最大限度地提高大規模 AI 工作負載的效率。

安全性和多租戶問題透過運行在 NVIDIA BlueField-3 DPU 上的 NVIDIA DOCA 軟體框架來解決。這項組合透過提供高達 200Gb/s 的線速租戶網路和高效能 GPU 資料存取來加速 AI 工作負載,並支援安全的多租戶雲端環境。

專為前沿人工智慧而設計

戴爾整合機架解決方案旨在快速部署並無縫整合到生產環境中。據戴爾稱,與上一代 NVIDIA Hopper 相比,該系統可將用戶回應時間提高十倍,並將每瓦吞吐量提高五倍。

CoreWeave 強調,該系統專為前沿規模的人工智慧 (AI) 而設計,使用戶能夠訓練、優化和部署具有數萬億參數的模型。它專門設計用於處理測試時間擴展推理的高運算需求,這是在生產中部署高級 AI 模型的關鍵要求。

此次部署顯著增強了 CoreWeave 的 AI 雲端平台,簡化了大型語言模型的訓練、推理和即時推理。該系統架構支援透過 NVIDIA NVLink 交換托盤進行快速的 GPU 間通信,提供超過百億億次浮點運算的密集 AI 效能,並在單一機架中提供高達 40TB 的高速記憶體。

致力於效能和可擴展性

CoreWeave 計劃全年推出搭載 NVIDIA GB300 加速的戴爾伺服器,彰顯其對效率、可擴展性和業界領先效能的承諾。該計劃得到了戴爾 AI 專業服務的全力支持,該服務在資料中心設計和整合方面擁有深厚的專業知識,確保客戶獲得最佳效能並順利過渡到下一代 AI 基礎架構。

參與 StorageReview

電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | 的TikTok | RSS訂閱

哈羅德弗里茨

自 IBM 創建 Selectric 以來,我一直在科技行業工作。 不過,我的背景是寫作。 因此,我決定退出售前業務,回歸本源,從事一些寫作工作,但仍從事技術工作。