Hewlett Packard Enterprise (HPE) と NVIDIA は、企業における生成型 AI の導入を加速するために共同開発された AI ソリューションのポートフォリオである NVIDIA AI Computing by HPE を発表しました。このポートフォリオには、あらゆる規模の企業が AI アプリケーションを効率的に開発および導入できるようにする、複数の統合された製品とサービスが含まれています。
Hewlett Packard Enterprise (HPE) と NVIDIA は、企業における生成型 AI の導入を加速するために共同開発された AI ソリューションのポートフォリオである NVIDIA AI Computing by HPE を発表しました。このポートフォリオには、あらゆる規模の企業が AI アプリケーションを効率的に開発および導入できるようにする、複数の統合された製品とサービスが含まれています。
HPE Discover 基調講演では、発表すべきことが数多くありました。HPE 社長兼 CEO の Antonio Neri 氏と NVIDIA 創設者兼 CEO の Jensen Huang 氏がステージに上がり、数十年にわたるパートナーシップの拡大を示すこの取り組みについて説明しました。
ネリ氏は、ジェネレーティブ AI は企業変革に大きな可能性を秘めているが、断片化された AI 技術の複雑さが、大規模な導入にリスクと障壁をもたらすと強調しました。これらの課題に対処するため、HPE と NVIDIA は AI 向けのターンキー プライベート クラウドを共同開発し、企業が生産性を高め、新たな収益源を開拓する新しい AI ユース ケースの開発にリソースを集中できるようにしました。フアン氏は、NVIDIA と HPE の技術の統合により、企業顧客と AI プロフェッショナルに最先端のコンピューティング インフラストラクチャとサービスが提供され、AI のフロンティアが広がると強調しました。
主なサービスと機能
HPE プライベート クラウド AI: ポートフォリオの主要な製品には、NVIDIA AI コンピューティング、ネットワーキング、ソフトウェアを HPE の AI ストレージ、コンピューティング、HPE GreenLake クラウドと緊密に統合した初のソリューションである HPE プライベート クラウド AI があります。このソリューションは、エネルギー効率が高く、高速で柔軟な方法で、生成 AI アプリケーションを持続的に開発および展開するための方法を企業に提供します。このソリューションは、IT 運用におけるワークロードと IT 効率の向上に役立つ新しい OpsRamp AI コパイロットを搭載しています。HPE プライベート クラウド AI には、完全なライフサイクル管理を備えたセルフサービス クラウド エクスペリエンスが含まれており、幅広い AI ワークロードとユースケースをサポートする 4 つの適切なサイズの構成で利用できます。
共同市場参入戦略: NVIDIA AI Computing by HPE のすべての製品とサービスは、共同の市場開拓戦略を通じて提供されます。この戦略は、営業チームとチャネル パートナー、トレーニング、およびシステム インテグレーターのグローバル ネットワークに及びます。これらのインテグレーターには、Deloitte、HCLTech、Infosys、TCS、Wipro が含まれ、いずれもさまざまな業界の企業が複雑な AI ワークロードを実行するのを支援できます。
共同開発されたプライベートクラウドAIポートフォリオ
HPE プライベート クラウド AI は、AI による企業リスクを管理しながら、イノベーションと投資収益率を加速する独自のクラウドベースのエクスペリエンスを提供します。このソリューションは、独自のデータを活用する推論、微調整、および検索拡張生成 (RAG) AI ワークロードをサポートします。これにより、データのプライバシー、セキュリティ、透明性、ガバナンスの要件に対する企業の制御が確保されます。さらに、IT 運用 (ITOps) と人工知能運用 (AIOps) 機能を備えたクラウド エクスペリエンスが提供され、生産性が向上します。HPE プライベート クラウド AI は、将来の AI の機会と成長に合わせて柔軟に消費するための迅速なパスを提供します。
AI およびデータ ソフトウェア スタックの基盤は、NVIDIA AI Enterprise ソフトウェア プラットフォームから始まります。これには、NVIDIA NIM 推論マイクロサービスが含まれます。このプラットフォームは、データ サイエンス パイプラインを加速し、製品グレードのコパイロットやその他の生成 AI アプリケーションの開発と展開を効率化します。NVIDIA NIM は、最適化された AI モデル推論のための使いやすいマイクロサービスを提供します。これにより、さまざまなユース ケースで AI モデルのプロトタイプから安全な展開までスムーズに移行できます。NVIDIA AI Enterprise と NVIDIA NIM を補完する HPE AI Essentials ソフトウェアは、統合されたコントロール プレーンを備えた、すぐに実行できる一連の厳選された AI およびデータ基盤ツールを提供します。このソフトウェアは、適応性の高いソリューション、継続的なエンタープライズ サポート、信頼できる AI サービスを提供し、AI パイプラインが AI ライフサイクル全体にわたって準拠し、説明可能で、再現可能であることを保証します。
統合AIインフラストラクチャ
HPE プライベート クラウド AI には、NVIDIA Spectrum-X Ethernet ネットワーキング、HPE GreenLake for File Storage、HPE ProLiant サーバーを備えた完全に統合された AI インフラストラクチャ スタックが含まれています。これらのサーバーは、NVIDIA L40S、NVIDIA H100 NVL Tensor Core GPU、NVIDIA GH200 NVL2 プラットフォームをサポートし、AI およびデータ ソフトウェア スタックに最適なパフォーマンスを提供します。
HPE GreenLake Cloud によって実現されるクラウド エクスペリエンス
HPE プライベート クラウド AI は、HPE GreenLake Cloud によって実現されるセルフサービス クラウド エクスペリエンスを提供します。HPE GreenLake Cloud サービスは、単一のプラットフォームベースのコントロール プレーンを通じて、ハイブリッド環境全体でエンドポイント、ワークロード、およびデータを自動化、オーケストレーション、および管理するための管理性と可観測性を提供します。これには、ワークロードとエンドポイントの持続可能性メトリックが含まれます。
OpsRamp の IT 運用を HPE GreenLake クラウドと統合することで、すべての HPE 製品とサービスに可観測性と AIOps が提供されます。OpsRamp は、NVIDIA NIM および AI ソフトウェア、NVIDIA Tensor Core GPU、AI クラスター、NVIDIA Quantum InfiniBand、NVIDIA Spectrum Ethernet スイッチなど、エンドツーエンドの NVIDIA アクセラレーテッド コンピューティング スタックの可観測性を提供します。IT 管理者は、ハイブリッド マルチクラウド環境全体で異常を特定し、AI インフラストラクチャとワークロードを監視するための洞察を得ることができます。
新しい OpsRamp オペレーション コパイロットは、NVIDIA の高速コンピューティング プラットフォームを利用して、会話アシスタントで大規模なデータセットを分析し、洞察を得ることで、運用管理の生産性を高めます。OpsRamp は CrowdStrike API とも統合されるため、顧客はインフラストラクチャとアプリケーション全体のエンドポイント セキュリティの統合サービス マップ ビューを表示できます。
グローバルシステムインテグレーターとの連携
企業の価値実現までの時間を短縮するために、Deloitte、HCLTech、Infosys、TCS、Wipro は、NVIDIA AI Computing by HPE ポートフォリオと HPE Private Cloud AI をサポートしています。これらのグローバル システム インテグレーターは、企業が明確なビジネス上のメリットを持つ業界に特化した AI ソリューションとユース ケースを開発できるよう支援します。
NVIDIAの最新テクノロジーのサポート
HPEはNVIDIAの最新のGPU、CPU、スーパーチップをサポートします。HPE Cray XD670はXNUMXつの NVIDIA H200 NVL Tensor コア GPU 大規模言語モデル (LLM) ビルダーに最適です。デュアル NVIDIA GH384 NVL12 を搭載した HPE ProLiant DL200 Gen2 サーバーは、より大規模なモデルや検索拡張生成 (RAG) を使用する LLM コンシューマーに最適です。HPE ProLiant DL380a Gen12 サーバーは、最大 200 つの NVIDIA HXNUMX NVL Tensor Core GPU をサポートし、生成 AI ワークロードを柔軟に拡張できます。
HPE は NVL72 タイプのシステムや Blackwell を披露しなかったが、NVIDIA Blackwell、NVIDIA Rubin、NVIDIA Vera アーキテクチャを含む NVIDIA GB200 NVL72 / NVL2 をサポートするのは「市場投入までの時間」になると述べた。
HPE クレイ XD670
高密度ファイルストレージ
HPE GreenLake for File Storage は、NVIDIA DGX BasePOD 認定と NVIDIA OVX ストレージ検証を取得しており、大規模な AI、生成 AI、GPU 集約型ワークロード向けの実証済みのエンタープライズ ファイル ストレージ ソリューションを提供します。HPE は、今後の NVIDIA リファレンス アーキテクチャ ストレージ認定プログラムを市場に投入する予定です。
利用状況
HPE プライベート クラウド AI は、秋に一般提供される予定です。NVIDIA H380 NVL Tensor Core GPU を搭載した HPE ProLiant DL12a Gen200 サーバーは、秋に一般提供される予定です。デュアル NVIDIA GH384 NVL12 を搭載した HPE ProLiant DL200 Gen2 サーバーは、秋に一般提供される予定です。NVIDIA H670 NVL を搭載した HPE Cray XD200 サーバーは、夏に一般提供される予定です。
HPE と NVIDIA のこのコラボレーションは、両社の広範なパートナーシップの拡大を意味します。この取り組みは、企業に最先端のコンピューティング インフラストラクチャとサービスを提供し、AI の領域を拡大することを目的としています。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード