Aujourd'hui, NVIDIA a annoncé qu'avec l'aide de certains de ses partenaires mondiaux, elle lance de nouveaux systèmes NVIDIA HGX A100. Les nouveaux systèmes cherchent à accélérer l'IA et le HPC en ajoutant des éléments NVIDIA tels que le GPU NVIDIA A100 80 Go PCIe, la mise en réseau NVIDIA NDR 400G InfiniBand et le logiciel NVIDIA Magnum IO GPUDirect Storage. Ces nouveaux systèmes HGX seront commercialisés par des partenaires tels qu'Atos, Dell Technologies, Hewlett Packard Enterprise (HPE), Lenovo, Microsoft Azure et NetApp.
Aujourd'hui, NVIDIA a annoncé qu'avec l'aide de certains de ses partenaires mondiaux, elle lance de nouveaux systèmes NVIDIA HGX A100. Les nouveaux systèmes cherchent à accélérer l'IA et le HPC en ajoutant des éléments NVIDIA tels que le GPU NVIDIA A100 80 Go PCIe, la mise en réseau NVIDIA NDR 400G InfiniBand et le logiciel NVIDIA Magnum IO GPUDirect Storage. Ces nouveaux systèmes HGX seront commercialisés par des partenaires tels qu'Atos, Dell Technologies, Hewlett Packard Enterprise (HPE), Lenovo, Microsoft Azure et NetApp.
NVIDIA fabrique des GPU haute puissance depuis des années. Le marché émergent de l'IA, en particulier dans le HPC, a poussé de plus en plus de supercalculateurs à tirer parti de la technologie de l'entreprise. NVIDIA fabrique lui-même des serveurs et des stations de travail HPC depuis quelques années avec les modèles DGX et HGX. Ce dernier a réuni plusieurs adresses IP NVIDIA sous un même toit pour de meilleures performances. Les nouveaux systèmes le font une fois de plus avec les dernières et meilleures offres de NVIDIA.
Carte graphique PCIe NVIDIA A100 80 Go
Le NVIDIA A100 a été annoncé l'année dernière au GTC. Ce nouveau GPU 7 nm exploite l'architecture Ampère de la société et contient 54 millions de transistors. NVIDIA a rapidement amélioré le produit avec l'introduction du GPU PCIe NVIDIA A100 80 Go, doublant sa mémoire. Le GPU PCIe A100 80 Go est la première partie des nouveaux systèmes HGX A100. Sa grande capacité de mémoire et sa bande passante élevée permettent de conserver plus de données et de plus grands réseaux de neurones en mémoire. Cela signifie moins de communication entre les nœuds et moins de consommation d'énergie. La mémoire élevée permet également un débit plus élevé, ce qui peut conduire à des résultats plus rapides.
Comme indiqué, le GPU NVIDIA A100 80 Go PCIe est alimenté par l'architecture Ampere de la société. Cette architecture comprend un GPU multi-instance, également appelé MIG. Le MIG peut fournir une accélération pour les charges de travail plus petites, c'est-à-dire l'inférence de l'IA. Cette fonctionnalité permet aux utilisateurs de réduire à la fois le calcul et la mémoire avec une QoS garantie.
Les partenaires entourant le GPU PCIe NVIDIA A100 80 Go incluent Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT et Supermicro. Il existe également quelques services cloud fournissant la technologie, notamment AWS, Azure et Oracle.
Mise en réseau NVIDIA NDR 400G InfiniBand
La deuxième pièce du puzzle du système NVIDIA HGX A100 est le nouveau système de commutation NVIDIA NDR 400G InfiniBand. Cela semble un peu évident, mais les systèmes HPC nécessitent un débit de données très élevé. NVIDIA a acquis Mellanox il y a quelques années pour près de 7 milliards de dollars. Depuis lors, il a régulièrement lancé de nouveaux produits tout en supprimant progressivement le nom Mellanox pour NVIDIA uniquement. L'année dernière est sorti son NVIDIA NDR 400G InfiniBand avec 3x la densité de ports et 32x l'accélération de l'IA. Ceci est intégré dans les nouveaux systèmes HGX via le système de commutateur à configuration fixe NVIDIA Quantum-2. Ce système est censé fournir 64 ports de NDR 400 Gb/s InfiniBand par port ou 128 ports de NDR200.
Selon la société, les nouveaux commutateurs modulaires NVIDIA Quantum-2 offrent des configurations de ports évolutives jusqu'à 2,048 400 ports de NDR 4,096 Gb/s InfiniBand (ou 200 1.64 ports de NDR5) avec un débit bidirectionnel total de 6.5 pétabits par seconde. Cela représente une amélioration de plus de 3 fois par rapport à la génération précédente avec une évolutivité 32 fois supérieure. En utilisant une topologie de réseau DragonFly+, les utilisateurs peuvent se connecter à plus d'un million de nœuds. Enfin, la société a ajouté dans sa technologie de réduction des données NVIDIA SHARP In-Network Computing de XNUMXe génération, qui, selon elle, peut voir une accélération de l'IA XNUMX fois plus élevée par rapport aux générations précédentes.
Les commutateurs NVIDIA Quantum-2 sont à la fois rétrocompatibles et rétrocompatibles. Les partenaires de fabrication incluent Atos, DDN, Dell Technologies, Excelero, GIGABYTE, HPE, Lenovo, Penguin, QCT, Supermicro, VAST et WekaIO.
Stockage direct GPU Magnum IO
La dernière pièce du nouveau puzzle NVIDIA HDX A100 est le nouveau Magnum IO GPUDirect Storage. Cela permet un accès direct à la mémoire entre la mémoire GPU et le stockage. Cela présente plusieurs avantages, notamment une latence d'E / S plus faible, une utilisation optimale de la bande passante des adaptateurs réseau et un impact moindre sur le processeur. Plusieurs partenaires proposent désormais Magnum IO GPUDirect Storage, notamment DDN, Dell Technologies, Excelero, HPE, IBM Storage, Micron, NetApp, Pavilion, ScaleFlux, VAST et WekaIO.
S'engager avec StorageReview
Newsletter | YouTube | LinkedIn | Instagram | Twitter | Facebook | TikTok | Flux RSS