Hem FöretagAI Japan integrerar tusentals NVIDIA H200 i AI Bridging Cloud Infrastructure 3.0

Japan integrerar tusentals NVIDIA H200 i AI Bridging Cloud Infrastructure 3.0

by Jordan Ranous

NVIDIA kommer att integrera tusentals H200 Tensor Core GPU:er i Japans AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0). HPE Cray XD-system med NVIDIA Quantum-2 InfiniBand-nätverk kommer att ge den prestanda och skalbarhet som ABCI kräver.

Japan är på väg att göra betydande framsteg inom AI-forskning och -utveckling genom att integrera tusentals NVIDIA H200 Tensor Core GPU:er i sin AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0). Leds av National Institute of Advanced Industrial Science and Technology (AIST), kommer denna integration att se HPE Cray XD system utrustat med NVIDIA Quantum-2 InfiniBand nätverk, som lovar överlägsen prestanda och skalbarhet.

ABCI 3.0: Avancering av AI-forskning och -utveckling

ABCI 3.0 representerar den senaste versionen av Japans storskaliga Open AI Computing Infrastructure, designad för att driva AI FoU framåt. Denna utveckling belyser Japans strävan att förbättra AI-kapacitet och tekniskt oberoende. Sedan lanseringen av den ursprungliga ABCI i augusti 2018 har AIST samlat på sig betydande erfarenhet av att hantera storskalig AI-infrastruktur. Bygger på denna grund, ABCI 3.0-uppgraderingen, i samarbete med NVIDIA och HPE, syftar till att höja Japans generativa AI-forsknings- och utvecklingskapacitet.

Det kodifierar din kultur, ditt samhälles intelligens, ditt sunda förnuft, din historia – du äger din egen data – Jensen Huang VD och koncernchef för NVIDIA

Superdatorn ABCI 3.0 kommer att finnas i Kashiwa.
Bild med tillstånd från National Institute of Advanced Industrial Science and Technology.

ABCI 3.0-projektet är ett samarbete mellan AIST, dess dotterbolag AIST Solutions och Hewlett Packard Enterprise (HPE) som systemintegratör. Detta initiativ stöds av Japans ministerium för ekonomi, handel och industri (METI) genom den ekonomiska säkerhetsfonden. Det är en del av METI:s bredare initiativ på 1 miljard dollar för att stärka datorresurser och investera i moln AI-datorer. NVIDIAs engagemang är betydande, och företaget lovar att stödja forskning inom generativ AI, robotik och kvantberäkningar och att investera i AI-startups samtidigt som det tillhandahåller omfattande produktsupport, utbildning och utbildning.

NVIDIA åtar sig till Japan

NVIDIAs samarbete med METI om AI-forskning och utbildning följer efter ett besök av VD Jensen Huang, som betonade den kritiska rollen som "AI-fabriker" - nästa generations datacenter designade för intensiva AI-uppgifter - för att omvandla enorma mängder data till handlingsbar intelligens. Huangs engagemang för att stödja Japans AI-ambitioner överensstämmer med hans vision om att AI-fabriker blir grunden för moderna ekonomier globalt.

AI-fabriken kommer att bli grunden för moderna ekonomier över hela världen – Jensen Huang VD och koncernchef för NVIDIA

ABCI 3.0, med sitt datacenter med ultrahög densitet och energieffektiva design, kommer att tillhandahålla en robust infrastruktur för utveckling av AI och big data-applikationer. Systemet, som förväntas vara i drift i slutet av året och inrymt i Kashiwa nära Tokyo, kommer att erbjuda toppmoderna AI-forsknings- och utvecklingsresurser.

Oöverträffad prestanda och effektivitet

ABCI 3.0-anläggningen kommer att leverera 6 AI-exaflops av beräkningskapacitet, ett mått på AI-specifik prestanda utan sparsitet, och 410 dubbelprecisions-petaflops för allmän beräkningskapacitet. Varje nod kommer att anslutas via Quantum-2 InfiniBand-plattformen, som erbjuder 200 GB/s tvåsektionell bandbredd. NVIDIA-tekniken utgör kärnan i detta initiativ, med hundratals noder utrustade med 8 NVLink-anslutna H200 GPU: er, vilket säkerställer oöverträffad beräkningsprestanda och effektivitet.

NVIDIA H200 GPU är en banbrytande komponent som erbjuder över 140 gigabyte (GB) HBM3e-minne med 4.8 terabyte per sekund (TB/s). NVIDIA hävdar en 15x förbättring av energieffektiviteten jämfört med ABCI:s tidigare generationsplattform för AI-arbetsbelastningar. Detta större och snabbare minne accelererar avsevärt generativa AI och stora språkmodeller (LLM), vilket främjar vetenskaplig beräkning för högpresterande beräkningar (HPC) med förbättrad energieffektivitet och lägre totala ägandekostnader.

Quantum-2 InfiniBand Advanced Networking 

Genom att integrera NVIDIA Quantum-2 InfiniBand med beräkningsfunktioner i nätverket kan nätverksenheter utföra beräkningar på data och avlasta arbete från processorn. Detta säkerställer effektiv kommunikation med hög hastighet och låg latens, avgörande för att hantera intensiva AI-arbetsbelastningar och stora datamängder.

ABCI:s dator- och databehandlingskapacitet i världsklass kommer att påskynda gemensamma AI FoU-insatser mellan industrier, akademi och regeringar. METI:s betydande investering i detta projekt belyser Japans strategiska vision att förbättra AI-utvecklingskapaciteten och påskynda användningen av generativ AI. Genom att subventionera utvecklingen av AI-superdatorer strävar Japan efter att minska tiden och kostnaderna för att utveckla nästa generations AI-teknologier, och därmed positionera sig som en ledare i det globala AI-landskapet.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde