Hem FöretagAI Från SLI till NVLink: Utvecklingen av spel- och multi-GPU-tekniker och deras inflytande på AI

Från SLI till NVLink: Utvecklingen av spel- och multi-GPU-tekniker och deras inflytande på AI

by Jordan Ranous
HP Z8 Fury G5 CPU-kylare

Landskapet av grafiska bearbetningsenheter (GPU) har upplevt seismiska förändringar under de senaste två decennierna, mycket mer nyligen med ökningen av AI. En betydande del av denna utveckling har varit utvecklingen av teknologier som gör att flera GPU:er kan arbeta tillsammans. NVIDIA, en föregångare inom GPU-området, har varit i framkant av denna revolution med två nyckelteknologier: Scalable Link Interface (SLI) och NVIDIA NVLink. Den här artikeln spårar resan från SLI till NVLink, och belyser hur NVIDIA ständigt anpassar sig till ständigt föränderliga datorkrav.

Landskapet av grafiska bearbetningsenheter (GPU) har upplevt seismiska förändringar under de senaste två decennierna, mycket mer nyligen med ökningen av AI. En betydande del av denna utveckling har varit utvecklingen av teknologier som gör att flera GPU:er kan arbeta tillsammans. NVIDIA, en föregångare inom GPU-området, har varit i framkant av denna revolution med två nyckelteknologier: Scalable Link Interface (SLI) och NVIDIA NVLink. Den här artikeln spårar resan från SLI till NVLink, och belyser hur NVIDIA ständigt anpassar sig till ständigt föränderliga datorkrav.

The Dawn of SLI

NVIDIA introducerade SLI i början av 2000-talet, som ursprungligen utvecklades av 3dfx för Voodoo2-kortserien, och var NVIDIAs svar på den växande efterfrågan på högre grafisk återgivning i videospel och konsumentapplikationer. I kärnan använder SLI en teknik som kallas Alternate Frame Rendering (AFR) för att dela upp renderingsarbetsbelastningen över flera GPU:er. Varje kort skulle rita varannan bildruta eller till och med en del av varje bildruta, vilket effektivt fördubblade grafikhästkrafterna. Även om det var revolutionerande vid den tiden hade SLI begränsningar, inklusive högre latens och bristande flexibilitet i datadelning mellan GPU:er.

SLI vs. CrossFire: A Rivalry in Multi-GPU Solutions

Medan NVIDIAs SLI satte farten för multi-GPU-konfigurationer, var det inte utan konkurrens. AMD:s CrossFire var en direkt konkurrent och erbjöd liknande möjligheter för multi-GPU-inställningar. Liksom SLI, syftade CrossFire till att öka grafisk prestanda genom tekniker som Alternate Frame Rendering (AFR) och Split Frame Rendering (SFR).

Bildkredit Dallas Moore

Bildkredit Dallas Moore

Men CrossFire hade sin egen uppsättning fördelar och utmaningar. Det var generellt mer flexibelt med kombinationerna av GPU:er som kunde användas, vilket möjliggjorde en blandning av olika AMD-kort. På minussidan kritiserades CrossFire ofta för sin mjukvarustapel, som vissa användare tyckte var mindre tillförlitlig och mer komplex att konfigurera än NVIDIAs SLI. Trots dessa skillnader var båda teknologierna inriktade på samma mål: att förbättra spelupplevelsen och konsumenternas grafiska upplevelser. Deras begränsningar i att hantera mer avancerade, dataintensiva uppgifter skulle så småningom bana väg för nästa generations lösningar som NVLink.

När 2010-talet rullade in började datorlandskapet förändras dramatiskt. Framväxten av artificiell intelligens (AI), högpresterande beräkningar (HPC) och big data-analyser krävde mer robusta multi-GPU-lösningar. Det blev uppenbart att SLI, som ursprungligen utformades med spel- och konsumenters arbetsbelastning i åtanke, var otillräcklig för dessa beräkningsintensiva uppgifter. NVIDIA behövde ett nytt paradigm.

Eran med dubbla GPU-kort: ett unikt tillvägagångssätt för multi-GPU-beräkning

Medan tekniker som SLI och CrossFire fokuserade på att ansluta flera diskreta GPU: er, fanns det ett annat, mindre vanligt tillvägagångssätt för multi-GPU-konfigurationer: dubbla GPU-kort. Dessa specialiserade grafikkort inrymde två GPU-kärnor på ett enda PCB (Printed Circuit Board), och fungerade effektivt som en SLI- eller CrossFire-installation på ett enda kort. Kort som NVIDIA GeForce GTX 690 och AMD Radeon HD 6990 var populära exempel på detta tillvägagångssätt.

Dual-GPU-kort erbjuder flera fördelar. De sparade utrymme genom att kondensera två GPU:er till en kortplats, vilket gör dem tilltalande för små formfaktor-datorer. De förenklade också installationen genom att eliminera behovet av att länka separata kort med externa kontakter. Dessa kort var dock inte utan problem. Värmeavledning var ett betydande problem som ofta krävde avancerade kylningslösningar. Strömförbrukningen var också hög, vilket krävde kraftiga strömförsörjningar för att stabilisera systemet.

Intressant nog var dubbla GPU-kort en sorts "bästa-av-båda-världar"-lösning, som kombinerade den råa kraften i multi-GPU-inställningar med enkelheten hos ett enda kort. Ändå sågs de ofta som en nischprodukt på grund av deras höga kostnader och tillhörande tekniska utmaningar. Eftersom multi-GPU-tekniker som NVLink har utvecklats för att erbjuda högre bandbredd och lägre latens, har behovet av dubbla GPU-kort minskat. Ändå är de fortfarande ett fascinerande kapitel i GPU-utvecklingens historia.

Tesla-serien med grafikprocessorer från NVIDIA var en hörnsten i datoranvändning på företagsnivå, särskilt i datacenter och högpresterande datorkluster. Medan de flesta Tesla GPU:er är en-GPU-kort designade för maximal prestanda och effektivitet, har det funnits undantag som Tesla K80, som har dubbla GPU:er på ett enda kort. Dessa multi-GPU Tesla-kort var optimerade för mycket parallella beräkningar och var en stapelvara i vetenskaplig forskning, maskininlärning och stordataanalys. De är konstruerade för att möta de specifika kraven för dessa applikationer och erbjuder hög beräkningskapacitet, stor minneskapacitet och avancerade funktioner som ECC-minne (Error-Correcting Code). Även om de är mindre vanliga än sina motsvarigheter med en GPU, presenterade dessa Tesla-kort med dubbla GPU en kraftfull, om än nisch, lösning inom företagsdatorer.

Tillkomsten av NVLink

Gå in på NVLink, som introducerades med NVIDIAs Volta-arkitektur 2017. Denna teknik var inte bara en uppgradering utan en grundläggande omtanke om hur GPU:er kunde kopplas samman. NVLink erbjöd betydligt högre bandbredd (upp till 900 GB/s med de senaste versionerna), lägre latens och en mesh-topologi som möjliggjorde mer intrikata och många sammankopplingar mellan GPU:er. Dessutom introducerade NVLink konceptet för enhetligt minne, vilket möjliggör minnespoolning mellan anslutna GPU:er, en avgörande funktion för uppgifter som kräver stora datamängder.

Utveckling av NVLink-prestanda

Utveckling av NVLink-prestanda

SLI vs. NVLink

Vid första anblicken kan man tänka på NVLink som "SLI på steroider", men det skulle vara en förenkling. Medan båda teknikerna syftar till att länka flera GPU: er, är NVLink designad med en annan publik i åtanke. Den är utformad för vetenskaplig forskning, dataanalys och framför allt AI- och maskininlärningsapplikationer. Den högre bandbredden, lägre latensen och det enhetliga minnet gör NVLink till en mycket mer flexibel och kraftfull lösning för dagens beräkningsutmaningar.

Teknisk ryggrad i NVLink

NVLink representerar en logisk utveckling inom multi-GPU interconnect-teknologi, inte bara när det gäller hastighet utan också i arkitektonisk design. Strukturen i NVLink är sammansatt av höghastighetsdatabanor som kan överföra data dubbelriktat. Till skillnad från traditionella bussbaserade system använder NVLink en punkt-till-punkt-anslutning, vilket effektivt minskar flaskhalsar och förbättrar datagenomströmningen. De senaste iterationerna erbjuder bandbredder upp till 900 GB/s, en betydande förbättring jämfört med SLI:s kapacitet.

HP Z8 Fury G5 interiör

HP Z8 Fury G5 med 4x A6000 GPU

En av nyckelfunktionerna som skiljer NVLink åt är dess förmåga att stödja en mesh-topologi. I motsats till de seriekopplade eller hub-and-spoke-topologierna hos äldre teknologier, tillåter en mesh-inställning mer mångsidiga och många anslutningar mellan GPU:er. Detta är särskilt användbart i datacenter och högpresterande datorapplikationer där komplexa datavägar är normen.

Unified memory är en annan funktion hos NVLink. Detta gör att GPU:er kan dela en gemensam minnespool, vilket möjliggör effektivare datadelning och minskar behovet av att kopiera data mellan GPU:er. Detta är ett enormt uppsving för applikationer som maskininlärning och big data-analys, där stora datamängder ofta överskrider minneskapaciteten för en enda GPU.

NVLink förbättrar också latensen, en avgörande faktor i alla högpresterande datorinställningar. Lägre latens säkerställer snabbare dataöverföring och synkronisering mellan GPU:er, vilket leder till effektivare parallella beräkningar. Detta uppnås genom NVLinks funktioner för direkt minnesåtkomst (DMA), vilket gör att GPU:er kan läsa och skriva direkt till varandras minne utan att involvera processorn.

Effekten på AI och maskininlärning

Med tanke på den ökande betydelsen av AI i modern datoranvändning är NVLinks fördelar inte bara inkrementella utan transformerande. I AI-modellträning och dataskapande möjliggör NVLink snabbare dataöverföring mellan GPU:er, vilket möjliggör effektivare parallellbehandling. Detta är särskilt fördelaktigt när man arbetar med stora träningsdatauppsättningar, ett ämne som ligger nära det framväxande området för att skapa AI-modeller för träningsdata.

Med de växande kraven på avancerad beräkning som kvantsimuleringar, realtidsanalyser och nästa generations AI-algoritmer kan vi förvänta oss ytterligare förbättringar av NVLinks kapacitet. Oavsett om det är en ökning av bandbredden eller nya funktioner som underlättar ännu bättre samarbete mellan GPU:er, kommer NVLink eller dess efterföljare utan tvekan att förbli centrala för att uppfylla morgondagens beräkningsbehov.

Övergången från SLI till NVLink markerar en betydande milstolpe för multi-GPU-teknologier. Det återspeglar NVIDIAs engagemang för innovation och stor förståelse för det föränderliga beräkningslandskapet. Från spel till AI, konsumentapplikationer till datacenter, rötterna till NVLink inom spel och SLI illustrerar hur nödvändighet föder innovation och driver teknik framåt i en oändlig cykel av förbättringar.

Engagera dig med StorageReview 

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde