IBM は Hot Chips 2024 で Telum II アーキテクチャと Spyre Accelerator を発表しました。
IBM は、Hot Chips 2024 カンファレンスで、今後発売される IBM Telum II プロセッサーと IBM Spyre Accelerator のアーキテクチャの詳細を発表しました。これらの新しいテクノロジーは、次世代の IBM Z メインフレーム システム全体の処理能力を大幅に拡張するように設計されており、新しい AI アンサンブル方式によって従来の AI モデルと大規模言語 AI モデルの両方を高速化できます。大規模言語モデル (LLM) を活用した多くの生成 AI プロジェクトが概念実証から実稼働に移行するにつれて、電力効率が高く、安全でスケーラブルなソリューションに対する企業の需要が最優先事項になっています。
モルガン・スタンレーの調査によると、生成 AI の電力需要は今後数年間で毎年 75% 増加すると予想されており、2026 年までに AI のエネルギー消費量はスペインと同程度になると予測されています。このため、IBM のクライアントは、AI ワークロードに適したサイズの基盤モデルと設計段階からのハイブリッド アプローチをサポートするアーキテクチャーの決定を優先するようになりました。
IBM Telum II プロセッサーは、次世代の IBM Z システムを強化するために設計されています。周波数の向上、メモリ容量の拡張、キャッシュの 40% 増加、統合 AI アクセラレーター コアを特徴としています。新しいプロセッサーには、メインフレームのネットワークとストレージの複雑な IO プロトコルを高速化するように設計された、コヒーレントに接続されたデータ処理ユニット (DPU) が導入されています。DPU によりシステム操作が簡素化され、主要コンポーネントのパフォーマンスが向上するため、Telum II プロセッサーは、LLM と業界の複雑なトランザクション ニーズをサポートするエンタープライズ コンピューティング ソリューションに最適です。
Telum II プロセッサーを補完するのが IBM Spyre Accelerator で、追加の AI コンピューティング機能を提供します。Telum II と Spyre チップを組み合わせることで、複数の機械学習またはディープラーニング AI モデルをエンコーダー LLM と組み合わせた AI モデリングのアンサンブル手法をサポートするスケーラブルなアーキテクチャーが形成されます。このアンサンブル アプローチでは、各モデル アーキテクチャーの長所を活用して、個別のモデルと比較してより正確で堅牢な結果を実現します。Hot Chips 2024 でプレビューとして発表された IBM Spyre Accelerator は、アドオン オプションとして提供されます。75 ワットの PCIe アダプターを介して接続され、クライアントのニーズに合わせて拡張可能です。
IBM Z および LinuxONE の製品管理担当副社長である Tina Tarquinio 氏は、テクノロジーのトレンド、特に高まる AI の需要を常に先取りするという IBM の取り組みを強調しました。彼女は、Telum II プロセッサーと Spyre アクセラレーターは、高性能で安全かつ電力効率に優れたエンタープライズ コンピューティング ソリューションを提供するように設計されていると述べました。何年も開発されてきたこれらのイノベーションは、IBM の次世代 IBM Z プラットフォームに導入され、クライアントが LLM と生成 AI を大規模に活用できるようになります。
Telum II プロセッサーと IBM Spyre Accelerator は、IBM の長年のパートナーである Samsung Foundry が、高性能で電力効率に優れた 5nm プロセス ノードを使用して製造します。これらのテクノロジーを組み合わせることで、ビジネス価値を解き放ち、新たな競争上の優位性を生み出すように設計された、さまざまな高度な AI 主導のユース ケースがサポートされます。たとえば、住宅保険金請求における不正検出の強化は、LLM と従来のニューラル ネットワークを組み合わせたアンサンブル AI モデルによって実現できます。さらに、疑わしい金融活動の高度な検出は、規制要件への準拠をサポートし、経済犯罪のリスクを軽減するのに役立ちます。同時に、AI アシスタントは、アプリケーションのライフサイクルを加速し、知識を転送し、コードの説明と変換を提供できます。
Telum II プロセッサーは、5.5GHz で動作する 36 つの高性能コアを搭載し、コアあたり 2MB の L40 キャッシュを備え、オンチップ キャッシュ容量が 360% 増加して合計 4MB になります。仮想レベル 2.88 キャッシュは、プロセッサー ドロワーあたり 40GB となり、前世代より 50% 増加します。統合 AI アクセラレーターにより、低レイテンシー、高スループットのトランザクション内 AI 推論が可能になり、前世代と比較してチップあたりの計算能力が XNUMX 倍になります。さらに、Telum II チップに統合された新しい I/O アクセラレーション ユニット DPU は、I/O 密度が XNUMX% 増加してデータ処理を改善するように設計されており、大規模な AI ワークロードとデータ集約型アプリケーションに対する IBM Z の全体的な効率と拡張性が向上します。
IBM Spyre Accelerator は、複雑な AI モデルと生成 AI ユースケースを処理するために設計された、専用のエンタープライズ グレードのアクセラレーターです。最大 1 TB のメモリを搭載し、通常の IO ドロワー内の 75 枚のカードに分散して、メインフレーム全体の AI モデル ワークロードをサポートしながら、カード 32 枚あたりの消費電力は 4W 未満です。各チップには、int8、int8、fp16、fpXNUMX データ型をサポートする XNUMX 個のコンピューティング コアがあり、低レイテンシーと高スループットの両方の AI アプリケーションを実現します。
Telum II プロセッサは、IBM の次世代 IBM Z および IBM LinuxONE プラットフォームに搭載され、2025 年に利用可能になる予定です。現在技術プレビュー中の IBM Spyre Accelerator は、2025 年に利用可能になる予定です。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード