Accueil Entreprise OCI Compute BM.GPU.H100.8 apporte 8 GPU NVIDIA H100 au cloud

OCI Compute BM.GPU.H100.8 apporte 8 GPU NVIDIA H100 au cloud

by Brian Beeler

Oracle Cloud Infrastructure (OCI) a lancé une nouvelle forme de calcul sans système d'exploitation qui regroupe huit GPU NVIDIA H100, deux processeurs Intel Xeon à 56 cœurs, 2 To de DDR5, 16 disques SSD NVMe et une mise en réseau de 400 Go dans un rêve d'IA dans le cloud. OCI Compute BM.GPU.H100.8 est désormais généralement disponible.

Oracle Cloud Infrastructure (OCI) a lancé une nouvelle forme de calcul sans système d'exploitation qui regroupe huit GPU NVIDIA H100, deux processeurs Intel Xeon à 56 cœurs, 2 To de DDR5, 16 disques SSD NVMe et une mise en réseau de 400 Go dans un rêve d'IA dans le cloud. OCI Compute BM.GPU.H100.8 est désormais généralement disponible.

Les nouvelles formes OCI Compute BM.GPU.H100.8 exploitent essentiellement la vaste expertise cloud bare metal d'Oracle pour fournir une version cloud des serveurs GPU H8 à 100 voies très denses que l'on trouve souvent sur site. Mais là où quelque chose comme le Dell PowerEdge XE9680 peut prendre un peu de temps à être livré et atteint, car CAPEX, OCI Compute BM.GPU.H100.8 peut être rendu disponible plus immédiatement et suit le modèle OPEX cloud traditionnel.

Calcul OCI BM.GPU.H100.8

Composant Spécifications
Processeur Processeurs Intel Xeon de 4e génération, 2x 56 cœurs
GPU 8x cœur Tensor NVIDIA H100 80 Go
Mémoire 2 To DDR5
Stockage local 16x 3.84 To NVMe
Mise en réseau des clusters 8x 400 Go/sec

Les spécifications OCI Compute BM.GPU.H100.8 modélisent plus ou moins les versions sur site de ces puissants serveurs GPU, mais avec deux fois plus de SSD (bien que de faible capacité) que l'on trouve généralement sur des serveurs comme celui-ci. Oracle a également indiqué son intention de proposer les nouveaux GPU NVIDIA L40S sous des formes qui arriveront début 2024. La forme BM.L40S.4 comprendra quatre GPU L40S avec deux processeurs Intel Xeon 56 cœurs, 1 To de mémoire, 15.36 To de mémoire. Stockage NVMe et 400 Go/s de bande passante réseau.

Alors que de nombreuses organisations se contenteront très bien d'une seule de ces instances, OCI Supercluster leur permet de passer d'un seul nœud à 50,000 100 GPU HXNUMX. Cette option sera disponible plus tard cette année dans les régions de Londres et de Chicago, et d'autres seront disponibles dans le futur.

Infrastructure d'IA OCI

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS