新しい NVIDIA GB200 NVL72 システムは、72 個の Blackwell GPU と 36 個の Grace CPU を接続することで、AI システム設計の新しい基準を確立します。
NVIDIA は、近々開催される Hot Chips 2024 カンファレンスで最新のイノベーションを発表し、データセンターのパフォーマンスとエネルギー効率の進歩について発表する予定です。XNUMX 兆ドル規模のデータセンター コンピューティング市場が進化を続ける中、NVIDIA のエンジニアは、NVIDIA Blackwell プラットフォーム、液体冷却ソリューション、チップ設計用の AI エージェントの開発成果を紹介します。
カンファレンスでは、NVIDIAが NVIDIA ブラックウェル このプラットフォームは、Blackwell GPU、Grace CPU、BlueField DPU、CUDA ソフトウェアなど、複数のチップを統合し、さまざまな業界の次世代 AI を強化します。NVIDIA によると、マルチノードの液冷ラックスケール ソリューションである新しい GB200 NVL72 システムは、72 個の Blackwell GPU と 36 個の Grace CPU を接続することで、AI システム設計の新しい基準を確立します。このシステムにより、生成 AI ワークロードで前例のない低レイテンシの推論が可能になり、大規模言語モデル (LLM) の推論が最大 30 倍高速になります。
「ブラックウェルに備えて」
「NVIDIA Blackwell は究極のフルスタック コンピューティングの挑戦です」と、NVIDIA の Dave Salvator 氏は本日のブログ投稿で述べています。「これらの高度なテクノロジを統合することで、AI と高速コンピューティング パフォーマンスの標準を再定義し、エネルギー効率を劇的に向上させています。」
チップのイノベーション以外にも、NVIDIA はデータセンターを再定義する可能性のある冷却技術にも注力しています。大規模な AI ワークロードをサポートする上で重要な要素になりつつある液体冷却が、議論の焦点となります。NVIDIA のデータセンター冷却およびインフラストラクチャ担当ディレクターの Ali Heydari 氏は、既存の空冷式データセンターに後付けできるハイブリッド液体冷却ソリューションを紹介します。
こうしたハードウェアの進歩に加え、NVIDIA は AI を活用した設計の限界を押し広げています。NVIDIA の設計自動化研究担当ディレクターのマーク レン氏は、AI モデルとエージェント ベース システムが半導体設計をどのように変革するかについて洞察を提供します。これらの AI ツールは、セル クラスターの最適化やデバッグなどのタスクを自動化することでエンジニアの生産性を高め、チップ設計の効率化を図ります。「AI エージェントは、これまでは手動による介入が必要だった複雑なタスクを自律的に実行することで、新たな可能性を切り開いています」とレン氏は語ります。
Hot Chips 2024 は、25 月 27 日から XNUMX 日までスタンフォード大学およびオンラインで開催されます。参加者は、NVIDIA の最新のブレークスルーと、それが AI およびデータ センター テクノロジの未来をどのように形作るかについて、より深い洞察を得ることができます。
Hot Chips 2024でのNVIDIA Blackwellの発表の詳細については、以下をご覧ください。 NVIDIA の公式 Web サイト.
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード