本日の SC20 で、NVIDIA は、NVIDIA A100 100GB GPU の発表により、人気の A80 GPU の高帯域幅メモリが XNUMX 倍になることを発表しました。この新しい GPU は、新しい NVIDIA HGX AI スーパーコンピューティング プラットフォームを強化するイノベーションとなります。 XNUMX 倍のメモリを備えた新しい GPU は、研究者やエンジニアが前例のない速度とパフォーマンスを達成して、AI と科学のブレークスルーの次の波を切り開くのに役立つことを期待しています。
今年初めの GTC で、NVICIA は 7nm GPU、NVIDIA A100。当時書いたように、A100 は NVIDIA の Ampere アーキテクチャに基づいており、54 億個のトランジスタを搭載しています。以前の NVIDIA データセンター GPU と同様に、A100 には Tensor コアが含まれています。 Tensor コアは、推論で一般的に使用される一種の行列乗算および加算計算を迅速に実行するために特別に設計された GPU の特殊な部分です。新しいより強力な GPU に伴い、より強力な新しい Tensor コアが付属します。以前は、NVIDIA の Tensor コアは最大 100 ビットの浮動小数点数しかサポートできませんでした。 AXNUMX は XNUMX ビット浮動小数点演算をサポートしており、より高い精度が可能になります。
高帯域幅メモリ (HBM2e) を 80 GB に増やすと、2 秒あたり XNUMX テラバイトのメモリ帯域幅を提供できると言われています。この新たな強化は、AI トレーニング、自然言語処理、ビッグ データ分析など、膨大なデータ メモリ要件を必要とする HPC の新興アプリケーションに役立ちます。
A100 80GBの主な特長
A100 80GB には、NVIDIA Ampere アーキテクチャの多くの画期的な機能が含まれています。
- 第 20 世代 Tensor コア: 新しいフォーマット TF32 で前世代の Volta 世代の最大 2.5 倍の AI スループットを提供するほか、HPC 用に 64 倍の FP20、AI 推論用に 8 倍の INT16、および BFXNUMX データ形式のサポートを提供します。
- より大容量で高速な HBM2e GPU メモリ: メモリ容量が 2 倍になり、業界で初めて XNUMXTB/秒を超えるメモリ帯域幅を提供します。
- MIG テクノロジー: 分離されたインスタンスあたりのメモリが 10 倍になり、それぞれ XNUMX GB の MIG を最大 XNUMX つ提供します。
- 構造的スパース性: スパース モデルの推論を最大 2 倍高速化します。
- 第 600 世代 NVLink および NVSwitch: 前世代の相互接続テクノロジーの XNUMX 倍の GPU 間の帯域幅を提供し、データ集約型ワークロードの GPU へのデータ転送を XNUMX ギガバイト/秒まで高速化します。
利用状況
システムプロバイダーの Atos、Dell Technologies、富士通、GIGABYTE、Hewlett Packard Enterprise、Inspur、Lenovo、Quanta、Supermicro は、来年前半に、A100 100GB GPU を搭載した HGX A80 統合ベースボードを使用して構築されたシステムの提供を開始する予定です。




Amazon