Vandaag heeft NVIDIA aangekondigd dat het met de hulp van enkele van zijn wereldwijde partners nieuwe NVIDIA HGX A100-systemen lanceert. De nieuwe systemen proberen AI en HPC te versnellen door NVIDIA-elementen toe te voegen, zoals NVIDIA A100 80GB PCIe GPU, NVIDIA NDR 400G InfiniBand-netwerken en NVIDIA Magnum IO GPUDirect Storage-software. Deze nieuwe HGX-systemen zullen op de markt worden gebracht door partners als Atos, Dell Technologies, Hewlett Packard Enterprise (HPE), Lenovo, Microsoft Azure en NetApp.
Vandaag heeft NVIDIA aangekondigd dat het met de hulp van enkele van zijn wereldwijde partners nieuwe NVIDIA HGX A100-systemen lanceert. De nieuwe systemen proberen AI en HPC te versnellen door NVIDIA-elementen toe te voegen, zoals NVIDIA A100 80GB PCIe GPU, NVIDIA NDR 400G InfiniBand-netwerken en NVIDIA Magnum IO GPUDirect Storage-software. Deze nieuwe HGX-systemen zullen op de markt worden gebracht door partners als Atos, Dell Technologies, Hewlett Packard Enterprise (HPE), Lenovo, Microsoft Azure en NetApp.
NVIDIA maakt al jaren krachtige GPU's. De opkomende AI-markt, met name in HPC, heeft ertoe geleid dat steeds meer supercomputers gebruikmaken van de technologie van het bedrijf. NVIDIA maakt de laatste jaren zelf HPC-servers en -werkstations met DGX- en HGX-modellen. De laatste heeft verschillende NVIDIA IP's onder één dak samengebracht voor betere prestaties. De nieuwe systemen doen dit opnieuw met het nieuwste en beste dat NVIDIA te bieden heeft.
NVIDIA A100 80 GB PCIe GPU
De NVIDIA A100 werd vorig jaar op GTC aangekondigd. Deze nieuwe 7nm GPU maakt gebruik van de Ampere-architectuur van het bedrijf en bevat 54 miljoen transistors. NVIDIA verbeterde het product snel met de introductie van de NVIDIA A100 80GB PCIe GPU, waardoor het geheugen verdubbelde. De A100 80GB PCIe GPU is het eerste deel van de nieuwe HGX A100-systemen. Dankzij de grote geheugencapaciteit en hoge bandbreedte kunnen meer gegevens en grotere neurale netwerken in het geheugen worden bewaard. Dit betekent minder communicatie tussen knooppunten en minder energieverbruik. Het hoge geheugen zorgt ook voor een hogere doorvoer, wat kan leiden tot snellere resultaten.
Zoals gezegd, wordt de NVIDIA A100 80GB PCIe GPU aangedreven door de Ampere-architectuur van het bedrijf. Deze architectuur is voorzien van Multi-Instance GPU, ook wel MIG genoemd. MIG kan versnelling bieden voor kleinere workloads, dwz AI-inferentie. Met deze functie kunnen gebruikers zowel rekenkracht als geheugen verkleinen met een gegarandeerde QoS.
De partners rond de NVIDIA A100 80GB PCIe GPU zijn Atos, Cisco, Dell Technologies, Fujitsu, H3C, HPE, Inspur, Lenovo, Penguin Computing, QCT en Supermicro. Er zijn een paar cloudservices die de technologie leveren, waaronder AWS, Azure en Oracle.
NVIDIA NDR 400G InfiniBand-netwerken
Het tweede stuk van de NVIDIA HGX A100-systeempuzzel zijn de nieuwe NVIDIA NDR 400G InfiniBand-schakelsystemen. Dit klinkt een beetje voor de hand liggend, maar HPC-systemen hebben een zeer hoge gegevensdoorvoer nodig. NVIDIA kocht Mellanox een paar jaar geleden voor bijna $7 miljard. Sindsdien heeft het gestaag nieuwe producten uitgebracht, terwijl de naam Mellanox langzaam werd afgebouwd voor alleen NVIDIA. Vorig jaar werd zijn NVIDIA NDR 400G InfiniBand uitgebracht met 3x de poortdichtheid en 32x de AI-versnelling. Dit wordt geïntegreerd in de nieuwe HGX-systemen via het NVIDIA Quantum-2 switchsysteem met vaste configuratie. Dit systeem zou 64 poorten van NDR 400Gb/s InfiniBand per poort of 128 poorten van NDR200 leveren.
Volgens het bedrijf bieden de nieuwe NVIDIA Quantum-2 modulaire switches schaalbare poortconfiguraties tot 2,048 poorten van NDR 400Gb/s InfiniBand (of 4,096 poorten van NDR200) met een totale bidirectionele doorvoer van 1.64 petabit per seconde. Dit vertegenwoordigt meer dan 5x verbetering ten opzichte van de vorige generatie met 6.5x grotere schaalbaarheid. Met behulp van een DragonFly+ netwerktopologie kunnen gebruikers verbinding maken met meer dan een miljoen nodes. Ten slotte heeft het bedrijf zijn 3e generatie NVIDIA SHARP In-Network Computing datareductietechnologie toegevoegd, waarvan het beweert dat het 32x hogere AI-versnelling kan zien in vergelijking met eerdere generaties.
NVIDIA Quantum-2-switches zijn zowel achterwaarts als voorwaarts compatibel. Productiepartners zijn onder meer Atos, DDN, Dell Technologies, Excelero, GIGABYTE, HPE, Lenovo, Penguin, QCT, Supermicro, VAST en WekaIO.
Magnum IO GPUDirect-opslag
Het laatste stukje van de nieuwe NVIDIA HDX A100-puzzel is de nieuwe Magnum IO GPUDirect-opslag. Dit maakt directe geheugentoegang tussen GPU-geheugen en opslag mogelijk. Dit heeft verschillende voordelen, waaronder een lagere I/O-latentie, meer gebruik van de bandbreedte van de netwerkadapters en minder impact op de CPU. Verschillende partners hebben nu Magnum IO GPUDirect Storage beschikbaar, waaronder DDN, Dell Technologies, Excelero, HPE, IBM Storage, Micron, NetApp, Pavilion, ScaleFlux, VAST en WekaIO.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | LinkedIn | Instagram | Twitter | Facebook | TikTok | RSS Feed