Google Gemma 3 と AMD Instella AI モデルは、マルチモーダルおよびエンタープライズ AI 機能を向上させ、AI パフォーマンス標準を再構築します。
Google と AMD は、人工知能における重要な進展を発表しました。Google は、オープンソース AI モデル シリーズの最新世代である Gemma 3 を発表しました。同時に、AMD は Open Platform for Enterprise AI (OPEA) との統合を発表し、Instella 言語モデルをリリースしました。
Google の Gemma 3: 最小限のハードウェアでマルチモーダル AI の効率を実現
12 月 3 日の Gemma 2 のリリースは、Gemma XNUMX の成功に基づいています。新しいモデルでは、マルチモーダル機能、多言語サポート、効率性の向上が導入され、限られたハードウェアでも高度な AI パフォーマンスが可能になります。
Gemma 3 には、1B、4B、12B、27B パラメータの 4 つのサイズがあります。各バージョンには、基本バージョン (事前トレーニング済み) と命令調整バージョンの両方があります。より大きなモデル (12B、27B、3B) は、マルチモーダル機能を提供し、テキスト、画像、短い動画をシームレスに処理します。Google の SigLIP ビジョン エンコーダーは、視覚入力を言語モデルで解釈可能なトークンに変換し、Gemma XNUMX が画像ベースの質問に答え、オブジェクトを識別し、埋め込まれたテキストを読み取ることを可能にします。
Gemma 3 ではコンテキスト ウィンドウも大幅に拡張され、Gemma 128,000 の 2 トークンに対して最大 80,000 トークンをサポートします。これにより、モデルは 3 つのプロンプト内でより多くの情報を処理できます。さらに、Gemma 140 は XNUMX を超える言語をサポートし、グローバルなアクセシビリティを強化します。
LMSYS チャットボット アリーナ ランキング
Gemma 3は、 LMSYS チャットボット アリーナ人間の好みに基づいて大規模な言語モデルを評価するベンチマークです。Gemma-3-27B は Elo スコア 1338 を達成し、世界第 3 位にランクされました。これは、DeepSeek-V1318 (3)、Llama405-1257B (2.5)、Qwen72-1257B (2)、Mistral Large、Google の以前の Gemma XNUMX モデルなどの著名な競合製品よりも上位にランクされています。
AMD、OPEA統合によりエンタープライズAIを強化
AMD は、12 年 2025 月 XNUMX 日に Open Platform for Enterprise AI (OPEA) のサポートを発表しました。この統合により、OPEA GenAI フレームワークが AMD の ROCm ソフトウェア スタックに接続され、企業は AMD データ センター GPU 上でスケーラブルな生成 AI アプリケーションを効率的に導入できるようになります。
このコラボレーションは、モデル統合の複雑さ、GPU リソース管理、セキュリティ、ワークフローの柔軟性など、エンタープライズ AI の主要な課題に対処します。OPEA の技術運営委員会のメンバーとして、AMD は業界のリーダーと連携し、パブリック クラウド環境とプライベート クラウド環境に展開可能な構成可能な生成 AI ソリューションを実現します。
OPEA は、事前構築されたワークフロー、評価機能、埋め込みモデル、ベクター データベースなど、重要な AI アプリケーション コンポーネントを提供します。クラウド ネイティブのマイクロサービス ベースのアーキテクチャにより、API 駆動型ワークフローを通じてシームレスな統合が保証されます。
AMD、完全にオープンな 3B パラメータ言語モデル Instella を発表
AMD はまた、完全に AMD ハードウェア上で開発された、完全にオープンソースで 3 億のパラメータを持つ言語モデル ファミリである Instella も発表しました。
技術革新とトレーニングアプローチ
Instella モデルは、36 のデコーダー レイヤーとレイヤーごとに 32 のアテンション ヘッドを備えたテキストのみの自己回帰トランスフォーマー アーキテクチャを採用し、最大 4,096 トークンのシーケンスをサポートします。モデルは、OLMo トークナイザーを介して約 50,000 トークンの語彙を使用します。
マルチステージ パイプラインに続いて、128 ノードにわたる 300 個の AMD Instinct MI16X GPU でトレーニングが行われました。最初の事前トレーニングには、コーディング、学術、数学、一般知識を網羅する多様なデータセットから約 4.065 兆 57.575 億個のトークンが使用されました。8 番目の事前トレーニング ステージでは、MMLU、BBH、GSMXNUMXk などの特殊なベンチマークからさらに XNUMX 億 XNUMX 万個のトークンを使用して、問題解決能力が改良されました。
事前トレーニング後、Instella は 8.9 億トークンの厳選された指示応答データを使用して教師あり微調整 (SFT) を実施し、インタラクティブ機能を強化しました。最後の直接嗜好最適化 (DPO) フェーズでは、慎重に選択された 760 億 XNUMX 万トークンのデータを使用して、モデルを人間の嗜好に厳密に合わせました。
印象的なベンチマークパフォーマンス
ベンチマーク結果では、Instella の目覚ましいパフォーマンス向上が際立っています。このモデルは、既存の完全オープン モデルを平均 8% 以上上回り、ARC Challenge (+8.02%)、ARC Easy (+3.51%)、Winograde (+4.7%)、OpenBookQA (+3.88%)、MMLU (+13.12%)、GSM8k (+48.98%) などのベンチマークで素晴らしい結果を残しました。
Llama-3.2-3B や Gemma-2-2B などの主要なオープンウェイト モデルとは異なり、Instella は複数のタスクにわたって優れた、または非常に競争力のあるパフォーマンスを示しました。命令調整バリアントである Instella-3B-Instruct は、他の完全にオープンな命令調整モデルに対して平均 14% を超えるパフォーマンス リードで大きな利点を示し、主要なオープンウェイト命令調整モデルに対しても競争力のあるパフォーマンスを示しました。
完全なオープンソースリリースと可用性
AMD はオープンソース原則への取り組みに沿って、モデルの重み、詳細なトレーニング構成、データセット、コードなど、Instella モデルに関連するすべての成果物を公開しました。この完全な透明性により、AI コミュニティはこれらのモデルを使用してコラボレーション、複製、革新を行うことができます。
まとめ:
Google と AMD によるこれらの発表は、AI イノベーションの今後の刺激的な 3 年に向けた準備を整えました。Gemma XNUMX がマルチモーダル効率を再定義し、AMD の Instella モデルと OPEA 統合がエンタープライズ AI を強化するなど、業界の勢いは明らかです。NVIDIA の GTC カンファレンスが近づき、さらなる画期的なリリースが期待される中、これらの開発はこれから起こることのほんの始まりに過ぎないことは明らかです。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード