NVIDIA GTC 2025 では、Blackwell Ultra GPU、AI-Q、Mission Control、DGX Spark など、画期的な AI の進歩が発表されました。
NVIDIA の GTC カンファレンスでは、複数のセクターで AI 開発を変革する数多くのイノベーションが強調され、AI ハードウェア、ソフトウェア、パートナーシップにおける画期的な進歩が紹介されました。GTC 2025 の目玉は、間違いなくデータセンター GPU とそのロードマップの発表でした。NVIDIA の現在までに生産されている最も強力な AI アクセラレータは、Blackwell Ultra アーキテクチャに基づいて構築された B300 です。これは、すでに業界をリードする Blackwell GPU のパフォーマンスよりも 1.5 倍のパフォーマンス向上を実現します。
NVIDIA からリリースされた GPU と比較すると、パフォーマンスの向上は驚異的です。
製品仕様 | H100 | H200 | B100 | B200 | B300 |
---|---|---|---|---|---|
最大メモリ | 80 GB HBM3 | 141 GB HBM3e | 192 GB HBM3e | 192 GB HBM3e | 288 GB HBM3e |
メモリ帯域幅 | 3.35 TB /秒 | 4.8TB /秒 | 8TB /秒 | 8TB /秒 | 8TB /秒 |
FP4テンソルコア | – | – | 14PFLOPS | 18PFLOPS | 30PFLOPS |
FP6テンソルコア | – | – | 7PFLOPS | 9PFLOPS | 15PFLOPS* |
FP8テンソルコア | 3958 TFLOPS (約 4 PFLOPS) | 3958 TFLOPS (約 4 PFLOPS) | 7PFLOPS | 9PFLOPS | 15PFLOPS* |
INT 8 テンソルコア | 3958トップス | 3958トップス | 7 ポップ | 9 ポップ | 15PFLOPS* |
FP16/BF16 テンソルコア | 1979 TFLOPS (約 2 PFLOPS) | 1979 TFLOPS (約 2 PFLOPS) | 3.5PFLOPS | 4.5PFLOPS | 7.5PFLOPS* |
TF32 テンソル コア | 989 TFLOPS | 989 TFLOPS | 1.8PFLOPS | 2.2PFLOPS | 3.3PFLOPS* |
FP32 (高密度) | 67 TFLOPS | 67 TFLOPS | 30 TFLOPS | 40 TFLOPS | 情報不明 |
FP64 テンソル コア (高密度) | 67 TFLOPS | 67 TFLOPS | 30 TFLOPS | 40 TFLOPS | 情報不明 |
FP64 (高密度) | 34 TFLOPS | 34 TFLOPS | 30 TFLOPS | 40 TFLOPS | 情報不明 |
最大電力消費量 | 700W | 700W | 700W | 1000W | 情報不明 |
注: 「*」マークの付いた値は概算値であり、NVIDIA の公式数値ではありません。
Blackwell Ultra B300 は、Blackwell の他の製品と同様に、FP4 Tensor Core で 30 PFLOPS という驚異的なパフォーマンスを実現し、FP6/FP8 では現在の H15 と比較して 200 PFLOPS* という新しい精度フォーマットを導入しています。これは、FP7.5 コンピューティングを FP8 と比較すると約 4 倍の向上、FP4 パフォーマンスを比較するとほぼ 8 倍の向上です。
NVIDIA のロードマップの次の製品は、来年リリース予定の Vera Rubin GPU です。Vera Rubin は Blackwell Ultra の 3.3 倍のパフォーマンスを発揮し、B50 の 4 PFLOPS から 300 PFLOPS の高密度 FP15 コンピューティングを実現すると予想されています。ConnectX-9 および NVLink-6 テクノロジが付属し、前世代の 4 倍の帯域幅を実現します。Vera Rubin GPU は HBM1.6 メモリも備え、メモリ帯域幅が 1.8 倍に増加します。Grace CPU から Vera CPU への移行により、CPU と GPU の相互接続も大幅に強化され、最大 XNUMX TB/秒の速度が実現します。
NVIDIA は、2027 年後半に発売予定の Rubin Ultra GPU を予告し、その勢いを隠さなかった。Rubin Ultra GPU は Vera Rubin のパフォーマンスを 100 倍にすることを目標としており、GPU あたり驚異的な 4 PFLOPS の高密度 FP1 コンピューティングを実現する。Rubin Ultra には、4 TB の高度な HBMXNUMXe メモリも搭載される。
NVIDIA DGX スパーク
NVIDIAは、 プロジェクト・ディジット 今年初めの CES で、DGX Spark という名称の AI 開発者、研究者、データ サイエンティスト、学生向けの製品が発表されました。DGX Spark は新しい GB10 Blackwell チップを搭載し、128 GB の統合メモリで構成されています。
NVIDIA は、このシステムが驚異的な 1,000 AI TOPS を実現し、Spark のパフォーマンスを RTX 5070 と同等の実用的なレベルに引き上げると主張しています。Spark プラットフォームには ConnectX 7 SmartNIC も統合されており、Spark に 2x 200Gb リンクを装備してデータ移動を効率化します。ASUS、Dell、HPE、Lenovo などの OEM パートナーは、まもなくブランド バージョンを提供します。予約はすでに開始されており、出荷は XNUMX 月に開始される予定です。
NVIDIA DGX ステーション
NVIDIA は、エンタープライズ アプリケーション向けの究極のデスクトップ AI スーパーコンピューターとして位置付けられ、GB300 Grace Blackwell Ultra チップを搭載する更新された DGX Station も発表しました。
DGX Station は、784 GB の統合システム メモリを備え、20 ペタフロップスの高密度 FP4 AI パフォーマンスを実現します。これにより、NVIDIA の ConnectX 8 SuperNIC がシステムに直接統合され、800 Gb/s のネットワーク接続が可能になり、高性能ネットワークがその強力なコンピューティング能力の要求を満たすことが保証されます。ASUS、Box、Dell、HPE、Lambda、Supermicro などの OEM パートナーが DGX Station システムを構築する予定で、今年後半に提供が開始される予定です。
NVIDIA RTX Pro ブラックウェル
GPUの利益はそこで止まらなかった. NVIDIA は、あらゆるプラットフォームで AI、グラフィックス、シミュレーションのワークロードを高速化するように設計されたプロフェッショナル GPU ラインナップの包括的な刷新である RTX Pro Blackwell シリーズを発表しました。この新世代はデスクトップ ワークステーション、モバイル システム、サーバーに及び、フラッグシップの RTX Pro 6000 Blackwell は、業界をリードする 96 GB の GPU メモリを搭載し、最大 4,000 TOPS の AI パフォーマンスを実現します。これらの進歩により、デスクトップ システムではこれまで実現できなかったリアルタイム レイ トレーシング、迅速な AI 推論、高度なグラフィックス ワークフローが可能になります。
これらの GPU に詰め込まれた技術革新は、スループットが 1.5 倍高速な NVIDIA ストリーミング マルチプロセッサ、前世代の 4 倍のパフォーマンスを提供する第 5 世代 RT コア、AI ワークロード向けの新しい FP2.1 精度をサポートする第 XNUMX 世代 Tensor コアなど、かなりのものです。その他の機能強化には、帯域幅が XNUMX 倍になる PCIe Gen XNUMX サポート、超高解像度のディスプレイ構成に対応する DisplayPort XNUMX 互換性、そして Server Edition では安全な AI ワークロード向けの NVIDIA Confidential Computing などがあります。
業界の専門家は、実際のアプリケーションで著しいパフォーマンスの向上を報告しています。Foster + Partners は RTX A5 よりも 6000 倍高速なレイ トレーシングを実現し、GE HealthCare は医療再構成アルゴリズムの GPU 処理時間が最大 2 倍向上したことを発見しました。自動車メーカーの Rivian は、新しい GPU を活用して設計レビューで前例のない VR ビジュアル品質を実現し、SoftServe は Llama 3-3.3B などの大規模な AI モデルでの作業で生産性が 70 倍向上したと報告しています。おそらく最も印象的なのは、Pixar が、制作ショットの 99% が 96 つの GPU の XNUMX GB メモリ内に収まるようになったと指摘したことです。
RTX Pro 6000 Blackwell Server Edition は、24 時間 7 日稼働するパッシブ冷却設計により、これらの機能をデータ センター環境に提供します。このサーバー重視のバリアントは、前世代のハードウェアと比較して、大規模言語モデル推論スループットが 5 倍、ゲノミクス シーケンシングが 7 倍高速、テキストからビデオへの生成が 3.3 倍高速、レコメンデーション システムの推論とレンダリングが 2 倍向上しています。これらの GPU は初めて、vGPU とマルチインスタンス GPU (MIG) テクノロジの両方を有効にし、各カードを最大 XNUMX つの完全に分離されたインスタンスに分割して、さまざまなワークロードのリソース使用率を最大化します。これらの GPU のデスクトップ バージョンは XNUMX 月に発売される予定で、サーバー バージョンは XNUMX 月、OEM ベースのラップトップは XNUMX 月に発売される予定です。
NVIDIAフォトニクス
ハードウェアの発表を締めくくったのは、AI データセンター内の光ネットワークを変革するイノベーションである NVIDIA Photonics です。従来のプラグ可能なトランシーバーを、スイッチ ASIC と同じパッケージにある共パッケージの光エンジンに置き換えることで、NVIDIA Photonics は電力消費を最小限に抑え、データ接続を合理化します。
新しいフォトニクス プラットフォームは、TSMC のフォトニック エンジン最適化を活用し、マイクロリング モジュレーター、高効率レーザー、取り外し可能なファイバー コネクタによって補完されており、従来のソリューションと比較して最大 3.5 倍の効率、10 倍の回復力、1.3 倍の展開速度を実現するように設計されています。NVIDIA は、より広範なエコシステム アプローチを実証する中で、高度なパッケージングおよび光学コンポーネント製造のリーダーとのパートナーシップが、これらのパフォーマンス向上の達成にいかに重要であるかを詳しく説明しました。
これらの新しい開発により、NVIDIA は、Quantum-X および Spectrum-X スイッチ ファミリーで 200G SerDes を搭載した 3450 つの新しいスイッチを展示しました。Quantum-X Infiniband のラインナップには、144 個の 800G ポートまたは 576 個の 200G ポートを備え、115Tb/s の帯域幅を実現する Quantum 6810-LD が含まれています。Spectrum-X イーサネット スイッチのポートフォリオは、128 個の 800G ポートまたは 512 個の 200G ポートを備えたよりコンパクトな Spectrum SN6800 から、512 個の 800G ポートと 2048 個の 200G ポートを備えた高密度の Spectrum SNXNUMX まで多岐にわたります。これらのスイッチはすべて、最適なパフォーマンスと効率性を維持するために液体冷却技術を備えています。
NVIDIA Quantum-X Photonics InfiniBand スイッチは今年後半に提供開始される予定で、NVIDIA Spectrum-X Photonics Ethernet スイッチは 2026 年に大手インフラストラクチャおよびシステム ベンダーから提供される予定です。
Nvidia Dynamo でハードウェアとソフトウェアを統合
NVIDIA の発表は、ソフトウェアとハードウェアが同等の割合で含まれていました。新しい Blackwell GPU の計算能力を最大限に活用するために、NVIDIA は大規模な AI モデルを提供するために特別に設計された AI 推論ソフトウェア Dynamo を発表しました。
NVIDIA Dynamo は、データ センター全体にわたる大規模な AI モデルの展開を最適化するように設計されたオープンソースの推論プラットフォームです。Dynamo の独自の分散型および分散型アーキテクチャにより、単一のクエリを多数の GPU に拡張でき、推論ワークロードを大幅に高速化できます。入力トークンの計算と出力トークンの間で処理タスクをインテリジェントに分割し、NVIDIA の NVLink 相互接続の長所を活用することで、DeepSeek R30 などの推論集約型モデルのパフォーマンスが最大 1 倍向上します。
驚くべきことに、Dynamo は追加のハードウェアなしで Hopper GPU 上の LLAMA などの既存の LLM のスループットを 2 倍にし、AI ファクトリーのトークン生成と収益の可能性を実質的に 2 倍にします。Dynamo により、NVIDIA はハイパースケール レベルの最適化をすべての人に提供して利用できるようにし、誰もが AI の変革の可能性を最大限に活用できるようにします。
Dynamo は現在 GitHub で利用可能で、PyTorch、BLM、SGLang、TensorRT などの一般的なバックエンドをサポートしています。
Nvidia AI-Q: 次世代のエージェント型 AI システム
NVIDIA は、AI エージェントを大規模なエンタープライズ データやツールにシームレスに接続するための青写真である AI-Q (発音は「IQ」) も発表しました。このオープン ソース フレームワークにより、エージェントはテキスト、画像、ビデオなど複数のデータ タイプにわたってクエリや推論を実行でき、Web 検索や他のエージェントなどの外部ツールを活用できます。
AI-Q の中核となるのは、新しい NVIDIA AgentIQ ツールキットです。これは、GitHub で本日リリースされたオープンソース ソフトウェア ライブラリです。AgentIQ は、マルチエージェント システムの接続、プロファイリング、最適化を容易にし、企業が高度なデジタル ワークフォースを構築できるようにします。AgentIQ は、CrewAI、LangGraph、Llama Stack、Microsoft Azure AI Agent Service、Letta などの既存のマルチエージェント フレームワークとシームレスに統合されるため、開発者は段階的に、または完全なソリューションとして導入できます。
NVIDIA は、大手データ ストレージ プロバイダーとも連携して、NVIDIA NeMo Retriever、AI-Q Blueprint、Blackwell GPU、Spectrum X ネットワーキング、Bluefield DPU を統合した AI データ プラットフォーム リファレンス アーキテクチャを作成しています。ほぼリアルタイムのデータ処理と迅速な知識取得を実現し、AI エージェントに重要なビジネス インテリジェンスを提供します。
AI-Q は 4 月から開発者向けに体験可能になります。
NVIDIA Mission Control: AI ファクトリーのオーケストレーション
NVIDIA は、包括的なソフトウェア戦略に基づいて、AI データ センターとワークロードの複雑な管理を自動化するように設計された、業界唯一の統合運用およびオーケストレーション ソフトウェア プラットフォームである Mission Control を発表しました。Dynamo が推論を最適化し、AI-Q がエージェント システムを有効にする一方で、Mission Control は AI パイプライン全体を支える重要なインフラストラクチャ層に対応します。
Mission Control は、プロビジョニング、監視、エラー診断などのエンドツーエンドの管理を自動化することで、企業が AI インフラストラクチャを展開および管理する方法を変革します。このプラットフォームにより、Blackwell ベースのシステムでトレーニングと推論のワークロードをシームレスに移行できるため、組織は優先順位が動的に変化してもクラスター リソースを再割り当てできます。NVIDIA が買収した Run:ai テクノロジを組み込んだ Mission Control は、インフラストラクチャの使用率を最大 5 倍向上させると同時に、手動介入を必要とする従来の方法よりも最大 10 倍高速なジョブ回復を実現します。
このソフトウェアは、簡素化されたクラスター セットアップ、SUNK (Slurm および Kubernetes) ワークフローのシームレスなワークロード オーケストレーション、開発者が選択可能なコントロールを備えたエネルギー最適化された電力プロファイル、自律的なジョブ回復機能など、最新の AI ワークロードに不可欠ないくつかの運用上の利点を提供します。その他の機能には、カスタマイズ可能なパフォーマンス ダッシュボード、オンデマンドのヘルス チェック、冷却と電源管理を強化するためのビル管理システムの統合などがあります。
Dell、HPE、Lenovo、Supermicro などの大手システム メーカーは、Mission Control を搭載した NVIDIA GB200 NVL72 および GB300 NVL72 システムを提供する計画を発表しました。Dell は NVIDIA と共同でこのソフトウェアを AI Factory に組み込み、HPE は Grace Blackwell ラック スケール システムで提供します。Lenovo は Hybrid AI Advantage ソリューションを更新して Mission Control を含める予定で、Supermicro はこれを Supercluster システムに統合します。
NVIDIA Mission Control はすでに DGX GB200 および DGX B200 システムで利用可能で、今年後半には DGX GB300、DGX B300、GB300 NVL72 システムのサポートも予定されています。AI インフラストラクチャの管理を開始しようとしている組織向けに、NVIDIA は、クラスターのサイズに関係なく、システムあたり最大 XNUMX つのアクセラレータに対して Base Command Manager ソフトウェアがまもなく無料になることも発表しました。
まとめ:
NVIDIA の GTC 2025 は、ハードウェア、ソフトウェア、インフラストラクチャにわたる画期的な進歩を発表し、AI テクノロジーの変革的な飛躍の舞台を整えました。Blackwell Ultra アーキテクチャ上に構築された強力な B300 GPU から革新的な DGX Spark および DGX Station システムまで、NVIDIA は AI コンピューティングの可能性を再定義し続けています。NVIDIA Photonics、Dynamo 推論ソフトウェア、AI-Q エージェント フレームワーク、Mission Control オーケストレーション プラットフォームの導入により、企業はより迅速に市場に参入し、より効率的に拡張できるようになります。また、この分野で NVIDIA がリーダーとしての地位をさらに確立することは間違いありません。
しかし、これは氷山の一角にすぎません。GTC では、さらに多くのイノベーションと洞察が探求されます。引き続き、NVIDIA のエキサイティングな未来に関する最新の発表と詳細な分析をお届けしていきますので、今週の他のニュース記事もぜひご覧ください。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード