CoreWeave は、パフォーマンスに関する詳細な情報を備えた初の Dell XE9712 GB200 NVL-72 システムを発表しました。
CoreWeave は、最新の GB200 NVL-72 システムを新しい Dell XE9712 サーバーとともに導入しました。このシステムは、最先端の Switch データ センターでライブ デモンストレーションで披露され、その画期的なパフォーマンスと高度な冷却インフラストラクチャが強調されました。
Rob Roy の Evo Chamber に収容されている CoreWeave の GB200 NVL-72 システムは、最も要求の厳しい計算ワークロードを処理できるように設計されています。ライブ デモは、ラックの 72 個の GPU にわたる Nvidia NVLink 相互接続の超高帯域幅と低遅延を実証するベンチマークである NCCL All-Reduce テストから始まりました。このテストにより、GPU 間のシームレスな通信が保証されます。
Bこれを基に、GPU Blaze テストではシステムの生の計算能力が示されました。GPU は複雑な行列乗算ワークロードに取り組み、AI トレーニング、科学的シミュレーション、高度なデータ処理で使用される操作をシミュレートしました。
CoreWeaveのSunkによるライブトレーニング
GB200 NVL-72 は、Kubernetes (Sunk) 上の Slurm を使用してライブ トレーニング ランでテストされ、Megatron モデルがトレーニングされました。トレーニング セッションでは、実際のワークロードでラックを検証し、冷却および電源インフラストラクチャにかかる負荷を実証しました。
GPU アクティビティが増加すると、ラック内の冷却分配ユニット (CDU) が冷却出力を動的に調整し、最適なハードウェア温度を維持しました。CDU からのリアルタイム データにより、GPU ワークロードによって流体戻り温度がどのように上昇するかが示され、パフォーマンスを犠牲にすることなく効率的な熱管理が保証されました。
GB200 NVL-72 の電力ダッシュボードは、システムのエネルギー要件を継続的に概観し、エネルギー管理の効率性と透明性を実証しました。
ロブ・ロイのエボ・チェンバー
NVL72 は、ラックあたり 1MW という驚異的な電力と冷却能力を備えた Rob Roy の Evo Chamber に収容されています。このインフラストラクチャの進歩により、250kW の空冷と 750kW のチップ直結液体冷却能力が組み合わされ、最も要求の厳しい AI および HPC ワークロードに最適なパフォーマンスが保証されます。チャンバーの洗練された設計により、効率的な電力使用と熱管理が維持され、次世代のコンピューティング要件がサポートされます。
まとめ:
CoreWeave は、AI インフラストラクチャをサービスとして提供するという点では明らかに業界のリーダーです。同社の成功の多くは、他のクラウドよりも迅速に最新の AI インフラストラクチャを導入できる能力によるものです。新しい Dell GB200 NVL-72 システムは、ハイパフォーマンス コンピューティングの新時代を象徴しています。最先端の GPU パフォーマンス、高度な冷却ソリューション、エネルギー効率を組み合わせて、AI、科学研究、データ集約型アプリケーションの需要に対応します。これは、大規模な AI ワークロードを実行している顧客にとって大きなメリットです。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード