I år på ISC Digital gjorde NVIDIA en handfull tillkännagivanden kring dess A100 GPU. Tillsammans med detta tillkännagav företaget en ny AI-plattform för superdatorer, NVIDIA Mellanox UFM Cyber-AI Platform. Och NVIDIA krossade ännu ett riktmärke.
I år på ISC Digital gjorde NVIDIA en handfull tillkännagivanden kring dess A100 GPU. Tillsammans med detta tillkännagav företaget en ny AI-plattform för superdatorer, NVIDIA Mellanox UFM Cyber-AI Platform. Och NVIDIA krossade ännu ett riktmärke.
Förra månaden tillkännagav NVIDIA sin nya Ampere-arkitektur och sin 7nm GPU, NVIDIA A100. Företaget släppte samtidigt sitt eget A100-system. NVIDIA tillkännagav en PCIe-formfaktor för A100 som gör att alla toppleverantörer kan släppa sin egen version av A100. Dessa leverantörer och deras system inkluderar:
- ASUS kommer att erbjuda ESC4000A-E10, som kan konfigureras med fyra A100 PCIe GPU:er i en enda server.
- Atos erbjuder sitt BullSequana X2415-system med fyra NVIDIA A100 Tensor Core GPU:er.
- Cisco planerar att stödja NVIDIA A100 Tensor Core GPU i sina Cisco Unified Computing System-servrar och i sitt hyperkonvergerade infrastruktursystem, Cisco HyperFlex.
- Dell Technologies planerar att stödja NVIDIA A100 Tensor Core GPU:er över sina PowerEdge-servrar och lösningar som accelererar arbetsbelastningar från kant till kärna till moln, precis som det stöder andra NVIDIA GPU-acceleratorer, programvara och teknologier i ett brett utbud av erbjudanden.
- Fujitsu tar med A100 GPU:er till sin PRIMERGY-serie av servrar.
- GIGABYTE kommer att erbjuda G481-HA0-, G492-Z50- och G492-Z51-servrar som stöder upp till 10 A100 PCIe GPU:er, medan G292-Z40-servern stöder upp till åtta.
- HPE kommer att stödja A100 PCIe GPU:er i HPE ProLiant DL380 Gen10 Server, och för accelererade HPC- och AI-arbetsbelastningar, i HPE Apollo 6500 Gen10 System.
- Inspur släpper åtta NVIDIA A100-drivna system, inklusive NF5468M5, NF5468M6 och NF5468A5 som använder A100 PCIe GPU:er, NF5488M5-D, NF5488A5, NF5488M6 och NF5688M6 och NF5888M6 med åttavägar och NF16MXNUMXway och NFXNUMXMXNUMX. NVLink.
- Lenovo kommer att stödja A100 PCIe GPU på utvalda system, inklusive Lenovo ThinkSystem SR670 AI-färdig server. Lenovo kommer att utöka tillgängligheten över sin ThinkSystem- och ThinkAgile-portfölj under hösten.
- One Stop Systems kommer att erbjuda sitt OSS 4UV Gen 4 PCIe-expansionssystem med upp till åtta NVIDIA A100 PCIe GPU:er för att tillåta AI- och HPC-kunder att skala ut sina Gen 4-servrar.
- Quanta/QCT kommer att erbjuda flera QuantaGrid-serversystem, inklusive D52BV-2U, D43KQ-2U och D52G-4U som stöder upp till åtta NVIDIA A100 PCIe GPU:er.
- Supermicro kommer att erbjuda sitt 4U A+ GPU-system, som stöder upp till åtta NVIDIA A100 PCIe GPU: er och upp till två extra högpresterande PCI-E 4.0 expansionsplatser tillsammans med andra 1U, 2U och 4U GPU-servrar.
Driftstopp är något som kan plåga vilket datacenter som helst men som kan ses som värre i superdatordatacenter. NVIDIA strävar efter att minimera driftstopp i InfiniBands datacenter med lanseringen av NVIDIA Mellanox UFM Cyber-AI Platform. Som namnet antyder är plattformen en förlängning av UFM-portföljen och utnyttjar AI för att upptäcka säkerhetshot och driftsproblem, samt förutsäga nätverksfel. Plattformen upptäcker inte bara problem och hot (inklusive hackare), den vidtar automatiskt korrigerande åtgärder för att åtgärda problemen.
NVIDIA tillkännagav stolt att man kunde krossa ännu ett riktmärke, det här kring Big Data Analytics känd som TPCx-BB. NVIDIA använde RAPIDS-sviten med datavetenskapsprogram med öppen källkod som drivs av 16 NVIDIA DGX A100-system. De kunde köra riktmärket på 14.5 minuter mot det tidigare rekordet på 4.7 timmar. Eller 19.5 gånger snabbare
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Rssflöde