本日の SC20 で、NVIDIA は NVIDIA DGX Station A100 を備えた AI データセンター イン ア ボックスを発表しました。これは DGX の第 320 世代となり、世界で唯一のペタスケール統合 AI ワークグループ サーバーであると主張しています。このサーバーには最大 XNUMXGB の GPU メモリが搭載されており、机の下に収まります。
本日の SC20 で、NVIDIA は NVIDIA DGX Station A100 を備えた AI データセンター イン ア ボックスを発表しました。これは DGX の第 320 世代となり、世界で唯一のペタスケール統合 AI ワークグループ サーバーであると主張しています。このサーバーには最大 XNUMXGB の GPU メモリが搭載されており、机の下に収まります。
NVIDIA DGX Station A100 には、新しく発表された NVIDIA A100 GPU が 2.5 つ搭載されており、最大 320 ペタフロップスを実現するといわれています。 GPU は NVIDIA NVLink で相互接続されており、AI や ATA サイエンスのメモリを大量に消費するアプリケーションに最適な最大 100 GB のメモリを提供します。 NVIDIA DGX Station A100 は、同社のマルチインスタンス GPU (MIG) テクノロジーもサポートしています。 MIG を使用すると、単一の DGX ステーション A28 が最大 XNUMX 個の個別の GPU インスタンスを提供して、システム パフォーマンスに影響を与えることなく並列ジョブを実行し、複数のユーザーをサポートできます。
NVIDIA DGX Station A100 の優れた側面の XNUMX つは、信じられないほど強力でありながら小型であり、データセンターの機器に通常必要とされるような電力や冷却を必要としないことです。これは、追加のインフラストラクチャを大量に追加することなく、遠隔地でも使用できることを意味します。
本日、同社は新しい NVIDIA A100 80GB GPU も発表しました。新しい 80GB バージョンを DGX A100 システムに追加すると、さらに大規模なデータセットやモデルに取り組むために最大 640GB のメモリ容量が必要になります。 NVIDIA は、新しい NVIDIA DGX A100 640GB システムはエンタープライズ向け NVIDIA DGX SuperPOD ソリューションに統合することもできるため、組織は 20 台の DGX A100 システム単位で利用可能なターンキー AI スーパーコンピューター上で大規模な AI モデルを構築、トレーニング、展開できると述べています。
利用状況
NVIDIA DGX Station A100 および NVIDIA DGX A100 640GB システムは、世界中の NVIDIA パートナー ネットワーク再販業者を通じて今四半期に入手可能になります。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | Facebook | RSSフィード