Oracle Cloud Infrastructure (OCI) は、100 個の NVIDIA H56 GPU、ツイン Intel 2 コア Xeon CPU、5TB の DDR16、400 個の NVMe SSD、および 100.8Gb ネットワークをクラウド上の AI の夢にパッケージ化した新しいベアメタル コンピューティング シェイプを開始しました。 OCI Compute BM.GPU.HXNUMX は現在一般提供されています。
Oracle Cloud Infrastructure (OCI) は、100 個の NVIDIA H56 GPU、ツイン Intel 2 コア Xeon CPU、5TB の DDR16、400 個の NVMe SSD、および 100.8Gb ネットワークをクラウド上の AI の夢にパッケージ化した新しいベアメタル コンピューティング シェイプを開始しました。 OCI Compute BM.GPU.HXNUMX は現在一般提供されています。
新しい OCI Compute BM.GPU.H100.8 シェイプは、基本的にオラクルの膨大なベアメタル クラウド専門知識を活用して、オンプレミスでよく使用される高密度 8 ウェイ H100 GPU サーバーのクラウド バージョンを提供します。しかし、次のようなものが デル PowerEdge XE9680 配信には少し時間がかかる場合があり、CAPEX が発生すると、OCI Compute BM.GPU.H100.8 はよりすぐに利用可能になり、従来のクラウド OPEX モデルに従います。
OCI コンピューティング BM.GPU.H100.8
成分 | 仕様 |
---|---|
CPU | 第 4 世代インテル Xeon プロセッサー、2x 56 コア |
GPU | 8x NVIDIA H100 80GB Tensor コア |
メモリ | 2TB DDR5 |
ローカルストレージ | 16x 3.84 TB NVMe |
クラスターネットワーキング | 8x 400 Gb/秒 |
OCI Compute BM.GPU.H100.8 の仕様は、このようなサーバーに通常見られる 40 倍の SSD (ただし容量は小さい) を搭載しているにもかかわらず、これらの強力な GPU サーバーのオンプレミス バージョンを多かれ少なかれモデル化しています。オラクルはまた、新しい NVIDIA L2024S GPU を 40 年初めに発売される形状で提供する予定であることを示しました。BM.L4S.40 形状には、ツイン Intel Xeon 56 コア CPU、1TB のメモリ、15.36TB のメモリを備えた 400 つの LXNUMXS GPU が含まれます。 NVMeストレージとXNUMXGB/秒のネットワーク帯域幅。
多くの組織はこれらのインスタンスの 50,000 つで問題なく対応できますが、OCI Supercluster を使用すると、単一ノードから最大 100 個の HXNUMX GPU まで拡張できます。このオプションは今年後半にロンドンとシカゴ地域で利用可能になり、将来的にはさらに多くの地域で利用可能になる予定です。
StorageReview と連携する
ニュースレター | YouTube |ポッドキャスト iTunes/Spotifyは | Instagram | Twitter | TikTok | RSSフィード