Hem Företag Supermicro tillkännager nya HGX vätskekylda servrar

Supermicro tillkännager nya HGX vätskekylda servrar

by Lyle Smith

Supermicro har tillkännagett nya servererbjudanden som innehåller NVIDIAs senaste HGX H200 GPU:er (med H200 Tensor Core GPUs), som kommer att ge betydande framsteg inom området generativ AI och LLM-träning.

Supermicro har tillkännagett nya servererbjudanden som innehåller NVIDIAs senaste HGX H200 GPU:er (med H200 Tensor Core GPUs), som kommer att ge betydande framsteg inom området generativ AI och LLM-träning.

Företaget förbereder sig för att släppa AI-plattformar som inkluderar både 8U och 4U Universal GPU-system, fullt utrustade för att stödja HGX H200 med 8-GPU och 4-GPU-konfigurationer. Dessa system skryter med en förbättrad minnesbandbredd med introduktionen av HBM3e-tekniken, som ger nästan dubbelt så stor kapacitet och 1.4 gånger högre bandbredd jämfört med tidigare generationer. Detta steg i hårdvarukapacitet förväntas tillgodose de växande kraven på mer komplicerade beräkningsuppgifter inom AI-forskning och -utveckling.

Dessutom tillkännagav Supermicro en högdensitetsserver med NVIDIA HGX H100 8-GPU-system i ett vätskekylt 4U-system, som innehåller företagets senaste kylteknik. Supermicro hävdar att den är branschens mest kompakta högpresterande GPU-server och indikerar att detta system möjliggör den högsta tätheten av AI-träningskapacitet i en enda rackenhet hittills och kommer att bidra till att säkerställa kostnads- och energieffektivitet.

Partnerskapet med NVIDIA har gjort det möjligt för Supermicro att ligga i framkant av AI-systemdesign, och tillhandahålla optimerade lösningar för AI-träning och HPC-arbetsbelastningar. Företagets engagemang för snabb innovation är tydligt i deras systemarkitektur som möjliggör snabb marknadsimplementering av tekniska framsteg. De nya AI-systemen har NVIDIAs sammankopplingsteknik, som NVLink och NVSwitch, för att stödja extrema höghastighetsdataöverföringar på 900 GB/s, och erbjuder upp till 1.1 TB HBM3e-minne per nod, vilket optimerar prestanda för parallell bearbetning av AI-algoritmer.

Supermicro erbjuder ett brett utbud av AI-servrar, inklusive de allmänt använda 8U och 4U Universal GPU-systemen. Dessa system med fyrvägs- och åttavägs NVIDIA HGX H100 GPU:er är nu drop-in redo för de nya H200 GPU:erna (som har 41 GB minne med en bandbredd på 4.8 TB/s), vilket möjliggör ännu snabbare träningstid för större språk modeller.

Supermicro kommer att visa upp 4U Universal GPU System på den kommande SC23.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Rssflöde