ホーム Enterprise NVIDIA GTC 2022 は、グラフィックス、アニメーション、パフォーマンス、AI のイノベーションを実現します

NVIDIA GTC 2022 は、グラフィックス、アニメーション、パフォーマンス、AI のイノベーションを実現します

by ハロルド・フリッツ

NVIDIA は、印象的なグラフィックスとアニメーションを多用した CEO の Jensen Huang による基調講演で GTC 2022 セッションを開始しました。基調講演には誰もが共感できる内容がありました。ゲーマーは新しい GeForce RTX 40 GPU を手に入れます。ゲームやアプリケーション向けの印象的なニューラル レンダリング。 NVIDIA Hopper が本格的に稼働します。大規模言語モデルのクラウド サービスは AI を進歩させます。オムニバースクラウドサービス。 OVX コンピューティング システム。デザイナーとクリエイターのための GPU。自動車はDRIVE Thorを入手。エントリーレベル AI 用の Jetson Orin Nano。 IGX Edge AI コンピューティング プラットフォーム。

NVIDIA は、印象的なグラフィックスとアニメーションを多用した CEO の Jensen Huang による基調講演で GTC 2022 セッションを開始しました。基調講演には誰もが共感できる内容がありました。ゲーマーは新しい GeForce RTX 40 GPU を手に入れます。ゲームやアプリケーション向けの印象的なニューラル レンダリング。 NVIDIA Hopper が本格的に稼働します。大規模言語モデルのクラウド サービスは AI を進歩させます。オムニバースクラウドサービス。 OVX コンピューティング システム。デザイナーとクリエイターのための GPU。自動車はDRIVE Thorを入手。エントリーレベル AI 用の Jetson Orin Nano。 IGX Edge AI コンピューティング プラットフォーム。

GeForce RTX 40

最初の議題は、ADA Lovelace を搭載した次世代 GeForce RTX 40 シリーズ GPUS の発表で、ゲーマーやクリエイターに最高のパフォーマンスを提供するように設計されました。新しいフラッグシップ モデルである RTX 4090 GPU は、前モデルの最大 4 倍のパフォーマンスを備えています。

新しい NVIDIA Ada Lovelace アーキテクチャに基づく最初の GPU である RTX 40 シリーズは、パフォーマンスと効率の飛躍的な向上を実現し、AI を使用してピクセルを生成するリアルタイム レイ トレーシングとニューラル レンダリングの新時代を表します。 RTX 40 シリーズ GPU は、次のようなさまざまな新しい技術革新を備えています。

  • 最大 83 テラフロップスのシェーダ能力を備えたストリーミング マルチプロセッサ — 前世代の 2 倍です。
  • 最大 191 の有効レイトレーシング テラフロップスを備えた第 2.8 世代 RT コア - 前世代の XNUMX 倍。
  • 最大 1.32 Tensor ペタフロップスの第 5 世代 Tensor コア - FP8 アクセラレーションを使用すると、前世代の XNUMX 倍になります。
  • シェーダー実行順序変更 (SER) は、GPU のリソースをより有効に活用するためにシェーディング ワークロードをオンザフライで再スケジュールすることにより、実行効率を向上させます。 SER により、レイ トレーシングのパフォーマンスが最大 3 倍、ゲーム内のフレーム レートが最大 25% 向上します。
  • 2 倍高速なパフォーマンスを備えた Ada オプティカル フロー アクセラレータにより、DLSS 3 はシーン内の動きを予測し、ニューラル ネットワークが画質を維持しながらフレーム レートを向上できるようにします。
  • アーキテクチャの改善とカスタム TSMC 4N プロセス テクノロジーを密接に組み合わせることで、電力効率が最大 2 倍向上しました。
  • デュアル NVIDIA エンコーダー (NVENC) はエクスポート時間を最大半分に短縮し、AV1 サポートを備えています。 NVENC AV1 エンコードは、OBS、Blackmagic Design、DaVinci Resolve、Discord などで採用されています。

DLSS 3 はフレーム全体を生成し、ゲーム プレイを高速化

次に登場したのは、NVIDIA DLSS 3 で、ゲームやクリエイティブ アプリ向けの同社のディープラーニング スーパー サンプリング ニューラル グラフィックス テクノロジの次なる革命です。 AI を活用したテクノロジーは、フレーム全体を生成して非常に高速なゲームプレイを実現し、GPU がフレーム全体を独立して生成できるようにすることで、ゲームにおける CPU パフォーマンスの制限を克服します。

このテクノロジーは Unity や Unreal Engine などの人気のゲーム エンジンに導入されており、主要なゲーム デベロッパーからのサポートを受けており、35 を超えるゲームやアプリが間もなく登場します。

H100TensorコアGPU

この NVIDIA H100 Tensor コア GPU は本格的に稼働しており、パートナーは、NVIDIA Hopper アーキテクチャに基づく製品とサービスの第 1 波を 10 月に展開することを計画しています。

100 月に発表された H80 は XNUMX 億個のトランジスタで構築されており、強力な新しいトランスフォーマー エンジンと NVIDIA NVLink 相互接続の恩恵を受けて、高度なレコメンダー システムや大規模な言語モデルなどの最大の AI モデルを加速し、次のような分野でイノベーションを推進します。会話型AIと創薬。

H100 GPU は、第 XNUMX 世代マルチインスタンス GPU、機密コンピューティング、第 XNUMX 世代 NVIDIA NVLink、DPX 命令など、NVIDIA のアクセラレーション コンピューティング データセンター プラットフォームにおけるいくつかの主要なイノベーションによって強化されています。

NVIDIA AI Enterprise ソフトウェア スイートの 100 年間ライセンスが、メインストリーム サーバー用の HXNUMX に含まれるようになりました。これにより、AI ワークフローの開発と導入が最適化され、組織は AI チャットボット、レコメンデーション エンジン、ビジョン AI などの構築に必要な AI フレームワークとツールに確実にアクセスできるようになります。

お近くのプラットフォームへお越しの際は

新しいテクノロジーをすぐに試したいお客様のために、NVIDIA は、Dell PowerEdge サーバー上の H100 が現在利用可能になったことを発表しました。 NVIDIA ランチパッドは、無料のハンズオン ラボを提供し、企業が最新のハードウェアと NVIDIA AI ソフトウェアにアクセスできるようにします。

また、顧客は、100 つの H100 GPU を備え、FP32 精度で 8 ペタフロップスのパフォーマンスを実現する NVIDIA DGX HXNUMX システムの注文を開始することもできます。 NVIDIA Base Command と NVIDIA AI Enterprise ソフトウェアはすべての DGX システムを強化し、単一ノードから NVIDIA DGX SuperPOD への展開を可能にし、大規模な言語モデルやその他の大規模なワークロードの高度な AI 開発をサポートします。

システムを構築するパートナーには、Atos、Cisco、Dell Technologies、富士通、GIGABYTE、Hewlett Packard Enterprise、Lenovo、Supermicro が含まれます。

さらに、世界有数の高等教育および研究機関の一部は、次世代スーパーコンピューターの動力源として H100 を使用する予定です。その中には、バルセロナ スーパーコンピューティング センター、ロス アラモス国立研究所、スイス国立スーパーコンピューティング センター (CSCS)、テキサス アドバンスト コンピューティング センター、筑波大学などが含まれます。

H100 がクラウドに登場

Amazon Web Services、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure は、来年から H100 ベースのインスタンスをクラウドに最初にデプロイする予定です。

NVIDIA 大規模言語モデル クラウド AI サービス

大規模言語モデルクラウドAIサービス「NVIDIA NeMo Large Language Model Service」「NVIDIA BioNeMo LLM Service」を発表。この新しい LLM サービスにより、開発者は LLM を簡単に適応させ、コンテンツ生成、テキスト要約、チャットボット、コード開発、タンパク質構造や生体分子の特性予測などのためにカスタマイズされた AI アプリケーションを展開できるようになります。

NeMo LLM サービスを使用すると、開発者は、NVIDIA が管理するインフラストラクチャ上でプロンプト ラーニングと呼ばれるトレーニング方法を使用して、事前トレーニングされた多数の基礎モデルを迅速に調整できます。 NVIDIA BioNeMo サービスは、言語や科学アプリケーションを超えて LLM のユースケースを拡張し、製薬会社やバイオテクノロジー企業の創薬を加速するクラウド アプリケーション プログラミング インターフェイス (API) です。

オムニバース

NVIDIA Omniverse Cloud は、同社初のサービスとしてのソフトウェアおよびインフラストラクチャ製品です。 Omniverse は、アーティスト、開発者、エンタープライズ チームがどこでもメタバース アプリケーションを設計、公開、操作、体験できるクラウド サービス スイートです。

Omniverse Cloud を使用すると、個人やチームは、ローカルのコンピューティング能力を必要とせずに、ワンクリックで 3D ワークフローを設計および共同作業できる機能を体験できます。ロボット工学者は、スケーラビリティとアクセシビリティが向上した AI 対応のインテリジェント マシンをトレーニング、シミュレーション、テスト、導入できます。自動運転車のエンジニアは、物理ベースのセンサー データを生成し、交通シナリオをシミュレートして、安全な自動運転導入のためのさまざまな道路や気象条件をテストできます。

Omniverse Cloud の初期のサポートには、RIMAC Group、WPP、Siemens が含まれます。

オムニバース クラウド サービス

Omniverse Cloud サービスは、グラフィックスおよび物理シミュレーション用の NVIDIA OVX、高度な AI ワークロード用の NVIDIA HGX、およびデータ配信のための世界規模の分散データセンター ネットワークである NVIDIA Graphics Delivery Network (GDN) で構成されるコンピューティング システムである Omniverse Cloud Computer 上で実行されます。エッジでの高性能、低遅延のメタバース グラフィックス。

オムニバース クラウド サービスには次のものが含まれます。

  • Omniverse Nucleus Cloud — 3D デザイナーとチームが自由にコラボレーションし、共有された Universal Scene description (USD) ベースの 3D シーンとデータにアクセスできるようにします。 Nucleus Cloud を使用すると、デザイナー、クリエイター、開発者はほぼどこからでも、変更の保存、共有、ライブ編集を行ったり、シーンの変更を表示したりすることができます。
  • Omniverse アプリ ストリーミング — NVIDIA RTX™ GPU を持たないユーザーが、デザイナーやクリエイターが USD ベースの仮想世界を構築するためのアプリである Omniverse Create などの Omniverse リファレンス アプリケーションをストリーミングできるようにします。 Omniverse View、レビューと承認のためのアプリ。ロボットのトレーニングとテストには NVIDIA Isaac Sim を使用します。
  • Omniverse Replicator — 研究者、開発者、企業は、物理的に正確な 3D 合成データを生成し、カスタム合成データ生成ツールを簡単に構築して、知覚ネットワークのトレーニングと精度を加速し、NVIDIA AI クラウド サービスと簡単に統合できます。
  • Omniverse Farm – ユーザーと企業が複数のクラウド コンピューティング インスタンスを利用して、レンダリングや合成データ生成などの Omniverse タスクをスケールアウトできるようにします。
  • NVIDIA Isaac Sim — スケーラブルなロボティクス シミュレーション アプリケーションおよび合成データ生成ツールで、写真のようにリアルで物理的に正確な仮想環境を強化して、AI ベースのロボットを開発、テスト、管理します。
  • NVIDIA DRIVE Sim — 大規模で物理的に正確なマルチセンサー シミュレーションを実行するエンドツーエンドのシミュレーション プラットフォームで、コンセプトから導入まで自動運転車の開発と検証をサポートし、開発者の生産性を向上させ、市場投入までの時間を短縮します。

OVX コンピューティング サービス

NVIDIA は、NVIDIA Ada Lovelace GPU アーキテクチャと強化されたネットワーキング テクノロジを搭載し、リアルタイム グラフィックス、AI、デジタル ツイン シミュレーション機能を提供する第 2 世代の NVIDIA OVX を発表しました。

新しい NVIDIA OVX システムは、最先端の 3D ソフトウェア アプリケーションを使用して 3D 仮想世界を構築し、企業がメタバース アプリケーションを構築および運用できるようにするスケーラブルなエンドツーエンド プラットフォームである NVIDIA Omniverse Enterprise で没入型デジタル ツイン シミュレーションを運用するように設計されています。

NVIDIA OVX は、大規模な Omniverse デジタル ツインを強化するために設計されたコンピューティング システムです。この製品は、BMW グループやジャガー ランドローバーなどの世界で最も洗練された設計およびエンジニアリング チームに納入されます。

新しい OVX システムを駆動するのは、NVIDIA L40 GPU です。これも NVIDIA Ada Lovelace GPU アーキテクチャに基づいており、複雑な産業用デジタル ツインの構築に最高レベルのパワーとパフォーマンスをもたらします。

L40 GPU の第 3 世代 RT コアと第 40 世代 Tensor コアは、OVX 上で実行される Omniverse ワークロードに強力な機能を提供します。これには、マテリアルの高速化されたレイ トレースおよびパス トレース レンダリング、物理的に正確なシミュレーション、フォトリアリスティックな XNUMXD 合成データ生成が含まれます。 LXNUMX は、データセンターから RTX ワークロードを強化するために、主要 OEM ベンダーの NVIDIA 認定システム サーバーでも利用可能になります。

NVIDIA OVX には、NVIDIA ConnectX-7 SmartNIC も含まれており、ネットワークとストレージのパフォーマンスが強化され、本物のデジタル ツインに必要な正確なタイミング同期が提供されます。 ConnectX-7 には、各ポートでの 200G ネットワーキングのサポートと高速インライン データ暗号化が含まれており、データの移動を高速化し、デジタル ツインのセキュリティを強化します。

NVIDIA RTX 6000 ワークステーション GPU

NVIDIA RTX 6000 Ada Generation GPU は、リアルタイム レンダリング、グラフィックス、AI を提供します。設計者とエンジニアは、高度なシミュレーションベースのワークフローを推進して、より洗練された設計を構築および検証できます。アーティストはストーリーテリングを次のレベルに引き上げ、より魅力的なコンテンツを作成し、没入型の仮想環境を構築できます。科学者、研究者、医療専門家は、ワークステーション上のスーパーコンピューティング能力を利用して、救命薬や治療法の開発を加速できます。すべて、前世代の RTX A2 の最大 4 ~ 6000 倍のパフォーマンスです。

ニューラル グラフィックスと高度な仮想世界シミュレーション用に設計された RTX 6000 は、Ada 世代 AI とプログラマブル シェーダー テクノロジーを備えており、NVIDIA Omniverse Enterprise でメタバース用のコンテンツとツールを作成するための理想的なプラットフォームです。 RTX 6000 を使用すると、ユーザーは詳細なコンテンツを作成し、複雑なシミュレーションを開発し、魅力的で魅力的な仮想世界を構築するために必要な構成要素を形成できます。

次世代 RTX テクノロジー

NVIDIA Ada アーキテクチャを搭載した NVIDIA RTX 6000 は、次のような機能を備えた最先端の NVIDIA RTX テクノロジーを備えています。

  • 第 3 世代 RT コア: 前世代の最大 2 倍のスループットで、シェーディングまたはノイズ除去機能のいずれかを使用してレイ トレーシングを同時に実行できます。
  • 第 XNUMX 世代 Tensor コア: FP2 データ形式のサポートが拡張され、前世代よりも最大 8 倍高速な AI トレーニング パフォーマンス。
  • CUDAコア: 前世代と比較して最大 2 倍の単精度浮動小数点スループット。
  • GPUメモリ: 48 GB の GDDR6 メモリを搭載しており、最大の 3D モデル、レンダリング イメージ、シミュレーション、AI データセットを操作できます。
  • 仮想環境: 複数の高性能仮想ワークステーション インスタンス用の NVIDIA 仮想 GPU (vGPU) ソフトウェアをサポートし、リモート ユーザーがリソースを共有し、ハイエンド設計、AI、およびコンピューティング ワークロードを推進できるようにします。
  • XR: NVIDIA CloudXR を使用して複数の同時 XR セッションをストリーミングするため、前世代の 3 倍のビデオ エンコーディング パフォーマンスを備えています。

NVIDIA DRIVE おりん

NVIDIA DRIVE Orin 自動運転車用コンピュータの生産が開始され、NVIDIA DRIVE™ プラットフォームを採用する新しい自動車メーカーが紹介され、次世代の NVIDIA DRIVE Hyperion アーキテクチャが発表されました。 NVIDIA はまた、世界中の自動車メーカーとの一連の設計勝利により、自動車パイプラインが今後 11 年間で XNUMX 億ドル以上に増加したことも発表しました。

25 社以上の自動車メーカーが NVIDIA DRIVE Orin システム オン チップ (SoC) を採用しています。今年から、集中型 AI コンピューティング プラットフォーム上に構築されたソフトウェア デファインド ビークルを導入しています。

NVIDIA Orin を使用した DRIVE Hyperion は、新エネルギー車の中枢神経系および AI 頭脳として機能し、安全で確実な運転機能を確保しながら、常に改良された最先端の AI 機能を提供します。

また、2026 年に出荷開始される車両向けに、Atlan コンピューター上に構築された次世代の DRIVE Hyperion アーキテクチャも発表されました。DRIVE Hyperion プラットフォームは、顧客が現在の投資を将来のアーキテクチャに活用できるように、世代を超えて拡張できるように設計されています。

次世代プラットフォームはセンサーデータ処理のパフォーマンスを向上させ、完全自動運転の動作領域を拡張します。 DRIVE Hyperion 9 には、センサー スイートの一部として 14 台のカメラ、20 台のレーダー、XNUMX 台のライダー、XNUMX 台の超音波が搭載されています。

NVIDIA DRIVE トール

NVIDIA DRIVE Thor は、安全で確実な自動運転車用の次世代集中型コンピューターです。 DRIVE Thor は最大 2,000 テラフロップスを実現し、自動運転および支援運転、駐車、ドライバーと乗員の監視、デジタル インストルメント クラスター、車載インフォテインメント (IVI)、後部座席のエンターテイメントなどのインテリジェント機能を単一のアーキテクチャに統合し、効率性を高め、システム全体のコストが削減されます。

次世代スーパーチップには、NVIDIA Hopper マルチインスタンス GPU アーキテクチャに初めて導入された最先端の AI 機能と、NVIDIA Grace CPU および NVIDIA Ada Lovelace GPU が搭載されています。 DRIVE Thor は、グラフィックスとコンピューティングの MIG サポートを備えており、IVI および高度な運転支援システムがドメイン分離を実行できるようにし、タイム クリティカルなプロセスを中断することなく同時実行できるようにします。自動車メーカーの 2025 年モデルで利用可能となり、より高いパフォーマンスと高度な機能を同じスケジュールで市場に投入することで、生産ロードマップを加速します。

NVIDIA Jetson Orin Nano

NVIDIA は、前世代と比較して最大 80 倍のパフォーマンスを実現する新しい Jetson Orin Nano システムオン モジュールの発売により、NVIDIA Jetson ラインナップの拡大を発表し、エントリーレベルのエッジ AI およびロボティクスの新しい標準を確立しました。

NVIDIA Jetson ファミリは現在、40 つの Orin ベースのプロダクション モジュールにまたがっており、あらゆる範囲のエッジ AI およびロボティクス アプリケーションをサポートしています。これには、最小の Jetson フォーム ファクターで最大 275 兆演算/秒 (TOPS) の AI パフォーマンスを実現する Orin Nano から、高度な自律マシン向けに XNUMX TOPS を実現する AGX Orin までが含まれます。

Jetson Orin は、NVIDIA Ampere アーキテクチャ GPU、Arm ベースの CPU、次世代ディープラーニングおよびビジョン アクセラレータ、高速インターフェイス、高速メモリ帯域幅、マルチモーダル センサー サポートを備えています。このパフォーマンスと多用途性により、エッジ AI アプリケーションを導入するエンジニアから次世代のインテリジェント マシンを構築するロボット オペレーティング システム (ROS) 開発者に至るまで、より多くの顧客がかつては不可能と思われていた製品の商品化を可能にします。

NVIDIA IGX エッジ AI

NVIDIA IGX プラットフォームが本日発表されました。 IGX は高精度のエッジ AI に使用され、製造、物流、医療などの機密性の高い業界に高度なセキュリティとプロアクティブな安全性をもたらします。これまで、このような業界では、特定のユースケースに合わせてカスタム構築された高価なソリューションが必要でしたが、IGX プラットフォームは、さまざまなニーズに合わせて簡単にプログラムおよび構成できます。

IGX は、製造および物流のための高度に規制された物理世界の工場や倉庫に追加の安全層を提供します。医療エッジ AI のユースケースでは、IGX は安全で低遅延の AI 推論を提供し、ロボット支援手術や患者モニタリングなどの医療処置のためのさまざまな機器やセンサーからの瞬時の洞察に対する臨床需要に対応します。

NVIDIA IGX プラットフォーム — エッジ AI におけるコンプライアンスの確保

NVIDIA IGX プラットフォームは、ハードウェアとソフトウェアを強力に組み合わせたもので、自律型産業機械や医療機器向けの強力でコンパクト、エネルギー効率の高い AI スーパーコンピューターである NVIDIA IGX Orin が含まれています。

IGX Orin 開発者キットは、企業が製品のプロトタイプやテストを行うために来年初めに利用可能になる予定です。各キットには、高性能 AI コンピューティング用の統合 GPU と CPU、および超低遅延と高度なセキュリティを備えた高性能ネットワーキングを実現する NVIDIA ConnectX-7 SmartNIC が搭載されています。

また、さまざまなユースケースに合わせてプログラムおよび構成できる重要なセキュリティおよび安全機能を備えた強力なソフトウェア スタックも含まれています。これらの機能により、企業は倉庫の床や手術室など、人間とロボットが並行して作業する環境に予防的な安全性を追加できます。

IGX プラットフォームは、NVIDIA AI Enterprise ソフトウェアを実行して、AI ワークフローの開発と展開を最適化し、組織が必要な AI フレームワークとツールに確実にアクセスできるようにします。 NVIDIA はまた、Canonical、Red Hat、SUSE などのオペレーティング システム パートナーと協力して、プラットフォームにフルスタックの長期サポートを提供しています。

産業および医療環境における IGX の管理では、NVIDIA Fleet Command を使用すると、組織は中央のクラウド コンソールから安全な無線ソフトウェアとシステムのアップデートを展開できます。

リンクをクリックして全文をご覧ください。 GTC 2022 基調講演。

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード