Tillkännagav på GTC och bli tillgänglig som AIC på ISC, NVIDIA A100 GPU:er kommer nu till Google Cloud. Med tanke på att det bara har gått ungefär en månad sedan det första tillkännagivandet är detta ett riktigt snabbt drag för en GPU till ett stort offentligt moln. Google är det första stora offentliga molnet som introducerar A100, eller Ampere GPU:er, under sin Accelerator-Optimized VM (A2)-instansfamilj.
Tillkännagav på GTC och bli tillgänglig som AIC på ISC, NVIDIA A100 GPU:er kommer nu till Google Cloud. Med tanke på att det bara har gått ungefär en månad sedan det första tillkännagivandet är detta ett riktigt snabbt drag för en GPU till ett stort offentligt moln. Google är det första stora offentliga molnet som introducerar A100, eller Ampere GPU:er, under sin Accelerator-Optimized VM (A2)-instansfamilj.
Som vi sa vid det första tillkännagivandet är NVIDIAs första 7nm GPU NVIDIA A100. A100 är baserad på NVIDIAs Ampere-arkitektur och innehåller 54 miljarder transistorer. Liksom tidigare NVIDIA datacenter GPU:er inkluderar A100 Tensor Cores. Tensorkärnor är specialiserade delar av GPU:n som är speciellt utformade för att snabbt utföra en typ av matrismultiplikation och additionsberäkning som vanligtvis används vid slutledning. Med nya kraftigare GPU:er kommer nya, kraftigare Tensor Cores. Tidigare kunde NVIDIAs Tensor Cores endast stödja upp till trettiotvå-bitars flyttal. A100 stöder XNUMX-bitars flyttalsoperationer, vilket möjliggör mycket större precision.
Flera molnanvändningsfall behöver den typ av datorkraft som GPU:er kan tillhandahålla, särskilt AI-träning och slutledning, dataanalys, vetenskaplig beräkning, genomik, edge-videoanalys, 5G-tjänster, bland annat. De nya NVIDIA A100 GPU:erna kan öka prestanda för träning och slutledning med 20x jämfört med sina föregångare, vilket gör den idealisk för ovanstående.
Google Compute Engine kommer att utnyttja A100 för flera användningsområden, från uppskalning av AI-träning och vetenskaplig beräkning, till utskalning av slutledningsapplikationer, till att möjliggöra konversations-AI i realtid. Den nya instansen, A2 VM, kan fungera i arbetsbelastningar av olika storlekar. Instansen kommer att fungera över CUDA-aktiverad maskininlärningsträning och slutledning, dataanalys, såväl som högpresterande datoranvändning. För de stora arbetsbelastningarna erbjuder Google instansen a2-megagpu-16g, som kommer med 16 A100 GPU: er, som erbjuder totalt 640 GB GPU-minne och 1.3 TB systemminne, allt anslutet via NVSwitch med upp till 9.6 TB/s sammanlagt bandbredd. För kunder som inte behöver så mycket ström kommer det att finnas mindre A2 virtuella datorer också.
Inom en snar framtid kommer Google Cloud att rulla ut A100-stöd för Google Kubernetes Engine, Cloud AI Platform och andra Google Cloud-tjänster.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Rssflöde