HPE 使用 ProLiant 伺服器、私有雲 AI、Alletra SDK 和對 RTX PRO 6000 Blackwell GPU 的 OpsRamp 支援更新其 AI 基礎架構。
HPE 已針對其 NVIDIA AI Computing by HPE 產品組合推出了一系列更新。這些增強功能旨在更好地支援人工智慧開發的整個生命週期,從資料提取和訓練到即時推理和營運管理。 HPE 正專注於企業基礎設施內 AI 的整個生命週期。其最新更新體現了對靈活性、可擴展性和開發人員準備度的重視,首先是 HPE Private Cloud AI 的新功能。
HPE 私有雲 AI 的新功能旨在減少開發人員的摩擦
HPE Private Cloud AI 進行了一次核心更新,這是與 NVIDIA 合作開發的全端解決方案。該平台使組織能夠在本地或混合環境中運行生成式人工智慧 (GenAI) 和代理工作負載,並且現在將支援來自 NVIDIA AI Enterprise 的功能分支模型更新。
這意味著開發人員可以在不影響穩定生產模型的情況下測試新的 AI 框架、微服務和 SDK,這種方法與現代軟體開發中常見的方法相似。它為實驗提供了更安全的環境,同時保持了企業級人工智慧所需的穩健性。
HPE Private Cloud AI 也將支援 NVIDIA Enterprise AI Factory 驗證的設計。這種一致性為組織提供了一條更清晰的途徑,可以使用 NVIDIA 經過測試的參考設計來建立 AI 解決方案,更容易實現可靠且一致的擴展。
Alletra Storage 的新 SDK 簡化了 Agentic AI 的資料工作流程
HPE 也為其 Alletra Storage MP X10000 系統推出了一款新的軟體開發套件 (SDK),旨在與 NVIDIA AI 資料平台配合使用。該 SDK 使組織能夠更輕鬆地將其資料基礎設施連接到 NVIDIA 的 AI 工具。
主要目標是幫助管理非結構化資料(例如文件、圖像或影片),這些資料通常需要清理和組織才能用於 AI 專案。 SDK 支援諸如使用有用資訊標記資料、組織資料以便更快地進行搜尋以及為 AI 模型訓練和推理做準備等任務。
它還使用 RDMA(遠端直接記憶體存取)技術來加速儲存和 GPU 之間的資料傳輸,這有助於提高處理大型 AI 工作負載時的效能。
此外,Alletra X10000 的模組化設計允許組織分別擴展儲存和效能,從而允許他們根據特定專案需求調整其設定。透過結合這些工具,HPE 和 NVIDIA 旨在為組織提供更有效的方式來存取和處理數據,從本地系統到基於雲端的環境。
HPE 伺服器在 AI 基準測試中名列前茅
HPE 的 ProLiant Compute DL380a Gen12 伺服器最近在 10 MLPerf Inference:Datacenter v5.0 基準測試中名列前茅。這些測試評估了各種要求嚴苛的 AI 模型的效能,包括用於語言任務的 GPT-J、用於大規模生成式 AI 的 Llama2-70B、用於影像分類的 ResNet50 和用於物件偵測的 RetinaNet。強大的基準效能反映了伺服器的當前配置,其中包括高效能 NVIDIA H100 NVL、H200 NVL 和 L40S GPU。
HPE ProLiant Compute DL380a Gen12
在此基礎上,HPE 計畫從 10 月 6000 日起提供最多可配置 4 個 NVIDIA RTX PRO XNUMX Blackwell 伺服器版 GPU 的配置,從而擴展伺服器的功能。這項新增功能有望進一步增強伺服器對企業 AI 應用的適用性,例如多模態推理、基於模擬的 AI(通常稱為實體 AI)、模型微調以及高級設計或媒體工作流程。
DL380a Gen12 提供兩種冷卻選項來處理高需求工作負載:傳統空氣冷卻和直接液體冷卻 (DLC)。 DLC 配置利用 HPE 在熱管理方面的長期專業知識,有助於在持續運算密集型作業期間維持系統穩定性和效能。
該伺服器包括 HPE 的 Integrated Lights Out (iLO) 7 管理引擎,結合了使用 Silicon Root of Trust 的硬體級安全保護。它是首批採用後量子加密設計的伺服器平台之一,並符合 FIPS 140-3 3 級標準——加密安全的高級認證。
在管理方面,HPE Compute Ops Management 提供自動化生命週期工具,可追蹤系統健康狀況、及早標記潛在問題並透過 AI 驅動的分析提供能源使用洞察。
除了 DL380a 之外,HPE 還展示了其伺服器產品線的實力。 ProLiant Compute DL384 Gen12 配備雙插槽 NVIDIA GH200 NVL2 GPU,在四個 MLPerf v5.0 測試中排名第一,其中包括 Llama2-70B 和 Mixtral-8x7B 等大型模型。同時,配備 670 個 NVIDIA H8 SXM GPU 的 HPE Cray XD200 在 30 個基準測試場景中領先,涵蓋大型語言模型和基於視覺的 AI 任務。 HPE 系統在 50 多個測試類別中名列前茅,為其 AI 基礎設施功能提供了第三方驗證。
OpsRamp 擴充功能以涵蓋用於基礎設施可觀察性的全新 GPU 類
在營運方面,HPE 正在擴展對其 OpsRamp 軟體的支持,以使用即將推出的 NVIDIA RTX PRO 6000 Blackwell GPU 來管理環境。此次擴展使 IT 團隊能夠保持對其 AI 基礎設施的可見性,從 GPU 利用率和熱負載到記憶體使用和功耗。
該軟體為混合人工智慧環境帶來了全端可觀察性,並允許團隊主動自動化回應、最佳化作業調度並根據歷史趨勢管理資源分配。隨著企業對人工智慧的投資不斷增加,這些可觀察性和優化工具對於運行可靠且經濟高效的人工智慧部署變得越來越重要。
庫存情況
功能分支支持 HPE 私有雲 AI 中的 NVIDIA AI Enterprise 預計夏季將出現。 HPE Alletra Storage MP X10000 的 SDK,包括支援直接存取 NVIDIA 加速基礎設施的內存,也計劃於 2025 年夏季上市。 HPE ProLiant Compute DL380a Gen12 伺服器設定 NVIDIA RTX PRO 6000 Blackwell 伺服器版 GPU,將於 4 年 2025 月 XNUMX 日起接受訂購。 HPE的OpsRamp軟體 將與 RTX PRO 6000 的發布同步推出,以支援其管理和最佳化。
透過這些更新,HPE 似乎正在採取措施進一步加強其 AI 基礎設施產品組合,專注於創建可擴展、可管理的環境,以支援各種 AI 工作負載,而不會使操作過於複雜。
參與 StorageReview
電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | 的TikTok | RSS訂閱