本日の NetApp Insight で、同社は仮想化 AI インフラストラクチャ企業 Run:AI と提携し、GPU を最大限に活用してより高速な AI 実験を可能にすることを発表しました。両社は、無制限のコンピューティング リソースを利用してデータに高速アクセスし、多くの実験を並行して実行することで AI を高速化します。目標は、リソースを最大限に活用しながら実験を高速化することです。
本日の NetApp Insight で、同社は仮想化 AI インフラストラクチャ企業 Run:AI と提携し、GPU を最大限に活用してより高速な AI 実験を可能にすることを発表しました。両社は、無制限のコンピューティング リソースを利用してデータに高速アクセスし、多くの実験を並行して実行することで AI を高速化します。目標は、リソースを最大限に活用しながら実験を高速化することです。
速度は、最新のワークロードのほとんどにおいて重要な側面となっています。ただし、AI の実験は速度ともう少し密接に関係しており、実験が速ければ速いほど、ビジネスの成功に近づくためです。これは周知の事実ですが、AI プロジェクトは、主にデータ処理時間と時代遅れのストレージ ソリューションの組み合わせにより、効率が低下するプロセスに悩まされています。実行される実験の数を制限する可能性があるその他の問題としては、ワークロード オーケストレーションの問題と GPU コンピューティング リソースの静的割り当てがあります。
NetApp AI と Run:AI は、上記の問題に対処するために提携しています。これは、AI ワークロードのオーケストレーションが簡素化され、データ パイプラインとディープ ラーニング (DL) のマシン スケジューリングの両方のプロセスが合理化されることを意味します。 NetApp ONTAP AI の実証済みのアーキテクチャにより、顧客はデータ パイプラインの簡素化、高速化、統合を通じて AI と DL をより適切に実現できると同社は述べています。 Run:AI 側では、AI ワークロードのオーケストレーションにより、独自の Kubernetes ベースのスケジューリングおよびリソース利用プラットフォームが追加され、研究者による GPU 利用の管理と最適化を支援します。テクノロジーを組み合わせることで、集中ストレージ上の多くのデータセットに高速アクセスしながら、さまざまな計算ノード上で複数の実験を並行して実行できるようになります。
Run:AI は、AI インフラストラクチャ用の世界初のオーケストレーションおよび仮想化プラットフォームと呼ばれるものを構築しました。これらはハードウェアからワークロードを抽象化し、動的にプロビジョニングできる GPU リソースの共有プールを作成します。これを NetApp のストレージ システム上で実行することで、研究者はボトルネックを気にせずに自分の作業に集中できます。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | Facebook | RSSフィード