OpslagReview. com

AMD's Pensando Pollara 400 NIC brengt programmeerbaarheid en prestaties naar AI-netwerken

Enterprise  ◇  Netwerken

AMD heeft de beschikbaarheid aangekondigd van de Pensando Pollara 400, de eerste volledig programmeerbare AI Network Interface Card (NIC) in de branche. Deze innovatieve oplossing, ontworpen om AI-workloads te versnellen, is compatibel met de zich ontwikkelende Ultra Ethernet Consortium (UEC)-standaarden en geoptimaliseerd om de GPU-naar-GPU-communicatie in datacenters te verbeteren. De Pollara 400 AI NIC vertegenwoordigt een aanzienlijke stap voorwaarts in de ontwikkeling van schaalbare, krachtige infrastructuur voor AI/ML-workloads, generatieve AI en grote taalmodellen.

Pensando Pollara 400

Naarmate AI zich verder ontwikkelt, staan ​​organisaties voor de uitdaging om vergelijkbare computerinfrastructuren te ontwikkelen die optimale prestaties leveren en de flexibiliteit bieden om zich aan te passen aan toekomstige eisen. Een cruciale factor in deze evolutie is het efficiënt opschalen van GPU-communicatienetwerken binnen knooppunten. AMD's toewijding aan het behoud van klantkeuze en het verlagen van de totale eigendomskosten (TCO) zonder in te leveren op prestaties, blijkt uit de Pollara 400 AI NIC. Deze oplossing stelt organisaties in staat om een ​​toekomstbestendige AI-infrastructuur te creëren en tegelijkertijd de compatibiliteit met een open ecosysteem te behouden.

AI-workloads versnellen met geavanceerde netwerken

Het maximaliseren van AI-clusterprestaties is een topprioriteit voor cloudserviceproviders, hyperscalers en bedrijven. Veel organisaties zien het netwerk echter als een knelpunt, dat het GPU-gebruik beperkt. Hoewel gegevensoverdrachtssnelheid essentieel is, is deze alleen nuttig wanneer het netwerk is geoptimaliseerd om te voldoen aan de eisen van moderne AI-workloads.

Specificaties Details
Max. Bandbreedte 400 Gbps
Form Factor Halve hoogte, halve lengte (HHHL)
Host Interface PCIe Gen5.0 x16
Ethernet-interface QSFP112 (NRZ/PAM4 Serdes)
Ethernet-snelheden 25/50/100/200/400 Gbps
Ethernet-configuraties Ondersteunt maximaal 4 poorten:
1 x 400G
2 x 200G
4 x 100G
4 x 50G
4 x 25G
Management MCTP over SMBus

De Pensando Pollara 400 AI NIC pakt deze uitdagingen aan met intelligente load balancing, congestiebeheer, snelle failover en loss recovery. Deze functies zorgen ervoor dat netwerk- en rekenresources volledig worden benut, wat zorgt voor een hogere uptime, snellere taakafronding en verbeterde betrouwbaarheid op schaal. Naarmate AI-workloads complexer en omvangrijker worden, biedt de Pollara 400 AI NIC de tools die nodig zijn om knelpunten te elimineren en het volledige potentieel van de AI-infrastructuur te benutten.

Een toekomstbestendige, programmeerbare oplossing

De Pollara 400 AI NIC draait op AMD's P4-architectuur en biedt een volledig programmeerbare hardwarepijplijn die ongeëvenaarde flexibiliteit biedt. Deze programmeerbaarheid stelt klanten in staat zich aan te passen aan nieuwe standaarden, zoals die van de UEC, of ​​om aangepaste transportprotocollen te creëren die zijn ontworpen voor hun specifieke workloads. In tegenstelling tot traditionele hardware, waarvoor nieuwe generaties nodig zijn om nieuwe functies te ondersteunen, stelt de Pollara 400 organisaties in staat hun AI-infrastructuur te upgraden zonder te wachten op hardware-updates.

Belangrijke kenmerken van de Pollara 400 zijn onder andere ondersteuning voor meerdere transportprotocollen, zoals RoCEv2, UEC RDMA en andere Ethernet-protocollen, waardoor compatibiliteit met diverse workloads wordt gegarandeerd. Geavanceerde mogelijkheden zoals intelligent packet spraying, out-of-order packet handling en selectieve hertransmissie optimaliseren het bandbreedtegebruik en verminderen de latentie, wat essentieel is voor het trainen en implementeren van grote AI-modellen. Padbewuste congestiecontrole en snelle foutdetectie zorgen voor prestaties die bijna op draadsnelheid liggen en minimaliseren de inactieve tijd van de GPU, zelfs tijdens tijdelijke congestie of netwerkstoringen.

Het voordeel van een open ecosysteem

AMD's open ecosysteembenadering garandeert leveranciersonafhankelijke compatibiliteit, waardoor organisaties AI-infrastructuur kunnen opzetten die voldoet aan de huidige eisen en tegelijkertijd schaalbaar en programmeerbaar is voor toekomstige behoeften. Deze strategie verlaagt de kapitaaluitgaven (CapEx) doordat dure, celgebaseerde, grote buffer switching-fabrics niet langer nodig zijn, terwijl tegelijkertijd hoge prestaties worden gegarandeerd.

De Pensando Pollara 400 AI NIC is al gevalideerd in enkele van 's werelds grootste scale-out datacenters. Cloud Service Providers (CSP's) hebben voor deze oplossing gekozen vanwege de unieke combinatie van programmeerbaarheid, hoge bandbreedte, lage latentie en uitgebreide functionaliteit. Door uitbreidbare infrastructuur binnen een open ecosysteem mogelijk te maken, helpt AMD organisaties hun AI-omgevingen toekomstbestendig te maken en tegelijkertijd direct prestatievoordelen te leveren.

AMD Pensando

Neem contact op met StorageReview

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed

Harold Frits

Ik zit in de technische industrie sinds IBM Selectric heeft gemaakt. Mijn achtergrond is echter schrijven. Dus besloot ik om uit de pre-sales biz te stappen en terug te keren naar mijn roots, een beetje te schrijven maar nog steeds betrokken te zijn bij technologie.