ホーム EnterpriseAI Google Ironwood TPU:AI推論パフォーマンスの飛躍的な向上

Google Ironwood TPU:AI推論パフォーマンスの飛躍的な向上

by ディビヤンシュ・ジェイン

Google は、これまでで最も強力な AI アクセラレータである Ironwood TPU を発表し、推論のパフォーマンスと効率性を大幅に向上させました。

先週、Googleは最新のカスタムAIアクセラレータ「Ironwood TPU」を発表し、ますます要求が厳しくなるAIの世界において、大幅なパフォーマンス向上を実現しました。Google Cloud Next 25で発表されたIronwoodは、GoogleのTPUの第XNUMX世代であり、特に推論分野における最新のAIワークロードに対応するために特別に設計されています。

アイアンウッドTPU

TPUを理解する

Ironwood について詳しく説明する前に、TPU とは何かを理解しておくと役立ちます。Tensor Processing Unit は、Google が機械学習ワークロードの高速化を目的として開発した専用チップです。汎用 CPU や GPU が並列処理(当初はグラフィックス処理)に最適化されているのに対し、TPU はニューラルネットワークの中核を成す行列演算とテンソル演算に最適化されています。Google はこれまで、様々なバージョンの TPU を提供しており、多くの場合、「e」シリーズ(効率性と推論に重点を置き、事前学習済みモデルを実行)と「p」シリーズ(大規模モデルの学習における素のパフォーマンスに重点を置いたもの)を区別しています。

アイアンウッドのご紹介 

新型Ironwood TPUは、Google史上最も野心的なAIアクセラレータです。推論を多用する「推論モデル」の要求に特化して設計された、同社初のTPUです。 Ironwood は、以下を含むすべての主要なパフォーマンス指標において、前世代製品と比べて大幅な改善をもたらします。

TPU v5e TPUv5p について TPU v6e TPU v7e
BF16 コンピューティング 197 TFLOPs 459 TFLOPs 918 TFLOPs 2.3 PFLOPs*
INT8/FP8 コンピューティング 394 TOPs/TFLOPS* 918 TOPs/TFLOPs* 1836 TOPs/TFLOPS 4.6 POP/PFLOPS
HBM帯域幅 0.8 TB /秒 2.8 TB /秒 1.6 TB /秒 7.4 TB /秒
HBM容量 16 GB 95 GB 32 GB 192 GB
チップ間相互接続帯域幅(リンクあたり) 400 Gbps 800 Gbps 800 Gbps 1200 Gbps
相互接続トポロジ 2Dトーラス 3Dトーラス 2Dトーラス 3Dトーラス
TPUポッドサイズ 256 8960 256 9216
スペアコア いいえ いいえ はい はい

注: 「*」印の付いた数値は非公式に計算された数値です。

最も注目すべきは、Ironwood の特徴です。

  • 膨大な計算能力: 各チップは 4.6 ペタフロップスの FP8 パフォーマンスを実現し、NVIDIA の Blackwell B200 と同等の性能クラスに相当します。
  • メモリ容量の増加:チップあたり192GBの高帯域幅メモリ(HBM)
  • メモリ帯域幅が大幅に向上:チップあたり7.37 TB/秒(Trilliumの4.5倍)で、メモリ制約のあるAI推論のためのデータアクセスを高速化
  • 強化された相互接続機能:双方向帯域幅1.2 TBps、Trilliumの1.5倍の向上により、チップ間のより効率的な通信を促進

推測: アイアンウッドは行方不明の v6p ですか?

興味深いことに、Googleは期待されていたTPU v6p世代をスキップし、v7e Ironwoodのリリースに直接移行したようです。これは、このチップが当初v6pトレーニングチップとして意図されていた可能性を示唆しています。しかし、モデルサイズの急速な拡大と、NVIDIAのGB200 NVL72などの製品との競合の必要性から、Googleはこれをv7e Ironwoodとして再位置付けたと考えられます。9216 TPUポッドの巨大なサイズと、「e」シリーズチップ(通常はより経済的なバージョン)と呼ばれるチップにおける3D Torusインターコネクトの採用は、この説を強く裏付けています。

前方の道路

Googleは、Ironwood TPUを今年後半にGoogle Cloudを通じて提供開始すると発表しました。この技術は、Gemini 2.5やAlphaFoldなど、Googleの最先端のAIシステムの一部に既に採用されています。

これらの強力な新しいアクセラレータが開発者や研究者に利用可能になると、特に膨大な計算能力と高度な推論機能の両方を必要とする大規模な推論ワークロードにおいて、AI 機能の飛躍的な進歩が期待されます。

StorageReview と連携する

ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード