De aankondigingen van NVIDIA Computex 2025 omvatten NVLink Fusion, RTX PRO 6000-servers, DGX Cloud Lepton, Jetson Thor en GR00T-Dreams-robotica.
NVIDIA kwam tijdens Computex 2025 met een stortvloed aan spannende aankondigingen. Het bedrijf onthulde nieuwe technologieën op het gebied van semi-aangepaste AI-infrastructuur, AI-fabrieken voor bedrijven, gedemocratiseerde AI-ontwikkeltools en geavanceerde platforms voor humanoïde robotica. Dit duidt op een aanzienlijke versnelling in de integratie van AI in alle facetten van computing en industrie.
NVLink Fusion: een nieuw tijdperk van semi-aangepaste AI-infrastructuur mogelijk maken
Een van de belangrijkste aankondigingen op Computex was de opening van NVLink door NVIDIA. Met NVIDIA NVLink Fusion biedt het bedrijf IP en een nieuwe siliciumbasis waarmee industrieën semi-custom AI-infrastructuur kunnen bouwen door hun technologieën te integreren met de geavanceerde interconnects.
Klanten kunnen ASIC's op maat ontwikkelen of hun CPU's rechtstreeks aansluiten op de high-performance scale-up fabric. Bedrijven kunnen bijvoorbeeld hun CPU's op maat koppelen aan NVIDIA GPU's via C2C-koppelingen, of omgekeerd, hun gespecialiseerde AI ASIC's integreren met NVIDIA's CPU's zoals de Grace of toekomstige versies, zoals de Vera, allemaal met elkaar verbonden via NVLink. De huidige generatie chip-to-chipinterface biedt een aanzienlijke bidirectionele bandbreedte van 900 GB/s tussen de CPU en de GPU. Tegelijkertijd biedt de bredere vijfde generatie NVLink-platform beschikt over een indrukwekkende bidirectionele bandbreedte van 1.8 TB/s per GPU.
Dit is spannend nieuws voor de industrie. Bedrijven die AI-versnellers bouwen, hebben nu een aantrekkelijke keuze: ze kunnen kiezen voor opkomende open standaarden zoals UA-koppeling, die weliswaar openheid bevorderen, maar momenteel achterblijven bij de gevestigde interconnectsnelheden van NVIDIA en nog in ontwikkeling zijn. Met NVLink Fusion kunnen ze daarentegen worden geïntegreerd met de snelste scale-up interconnect die momenteel beschikbaar is, waardoor ze direct toegang krijgen tot geavanceerde prestaties en NVIDIA's uitgebreide en volwassen softwaresuite.
Veel industriële partners springen er al op in. Belangrijke spelers die NVLink Fusion gebruiken om AI-silicium op maat en gespecialiseerde infrastructuur te creëren, zijn onder andere ASIC- en IP-partners MediaTek, Marvell, Alchip Technologies, Astera Labs, Synopsys en Cadence. Daarnaast zijn CPU-innovatoren Fujitsu en Qualcomm Technologies van plan om ook CPU's op maat te bouwen die gekoppeld kunnen worden aan NVIDIA GPU's en het NVLink-ecosysteem.
Blackwell Pro 6000-servers: de drijvende kracht achter AI-fabrieken voor bedrijven
Een andere cruciale aankondiging van NVIDIA op Computex draaide om het revolutioneren van zakelijke AI met de NVIDIA RTX PRO Blackwell-servers. Hoewel de kern-GPU, de RTX PRO 6000 Blackwell, dezelfde robuuste architectuur heeft als zijn workstation-tegenhanger, wordt de integratie in een meer standaard serverontwerp aanzienlijk verbeterd door een unieke innovatie: de NVIDIA ConnectX-8 (CX8), die Jensen Huang omschreef als "eerst een switch, dan pas een netwerkchip."
De echte doorbraak ligt in de manier waarop CX8 supersnel oost-westverkeer rechtstreeks tussen de GPU's binnen de server en tussen meerdere servers mogelijk maakt. Zoals Huang al zei, stelt deze mogelijkheid de RTX PRO 6000 GPU's in staat om efficiënt te communiceren voor veeleisende inferentieworkloads, vergelijkbaar met de hoge bandbreedte-interconnectiviteit die NVLink biedt op de vlaggenschip Blackwell GB200 en GB300 AI-fabriekssystemen. Deze directe GPU-naar-GPU-communicatie, waarbij tragere traditionele paden worden omzeild, maakt de RTX PRO Blackwell-servers een uitzonderlijke waardepropositie voor enterprise-inferentie. In combinatie met software zoals NVIDIA DynamoDeze servers bieden een uiterst efficiënte en schaalbare implementatie en werking van AI-agenten.
We hebben ook het moederbord zelf bekeken. Het beschikt over acht PCIe-slots voor de RTX PRO 6000 Blackwell GPU's. Daarnaast zijn er acht PCIe-aansluitingen die terugkoppelen naar het moederbord. En, de ster van de show, acht 800-Gbps-netwerkverbindingen, aangestuurd door de vier CX4-chips. Deze supersnelle poorten maken robuuste communicatie tussen servers mogelijk, waardoor bedrijven hun inferentiemogelijkheden kunnen opschalen door meerdere RTX PRO Blackwell-servers te verbinden tot krachtige clusters.
Tot slot benadrukte Huang de prestatieverbetering door benchmarks te presenteren die aantoonden dat de nieuwe RTX PRO Blackwell-server 1.7 keer sneller presteert dan een Hopper H100 HGX-systeem voor Lama 70B-inferentie. Nog indrukwekkender was dat de Blackwell-server voor het DeepSeek R1-model een viervoudige prestatieverbetering liet zien ten opzichte van de vorige generatie state-of-the-art H100. Deze aanzienlijke toename in tokens per seconde en per seconde per gebruiker onderstreept het vermogen van de server om interactieve AI-taken met hoge doorvoer en lage latentie af te handelen.
Humanoïde robotica, Nvidia Jetson Thor en Project GR00T: de grenzen van fysieke AI verleggen
NVIDIA belichtte ook zijn plannen voor het snelgroeiende veld van humanoïde robotica en onthulde belangrijke verbeteringen aan zijn NVIDIA Isaac-platform, ontworpen om de ontwikkeling van "fysieke AI" te versnellen. Volgens Jensen Huang vormt de nieuwe Jetson Thor-robotprocessor de kern van dit initiatief, waarvan de productie onlangs is gestart. Jetson Thor is ontworpen als het krachtige, energiezuinige brein voor een nieuwe generatie humanoïde robots en autonome systemen.
De hardware wordt aangevuld met NVIDIA Isaac GR00T N1.5, een bijgewerkte versie van NVIDIA's open, gegeneraliseerde basismodel voor de redenering en vaardigheden van humanoïde robots. Huang kondigde aan dat GR00T N1.5 nu open source is en aanzienlijke belangstelling heeft gewekt met duizenden downloads. Dit model is bedoeld om robots de intelligentie te geven om complexe instructies te begrijpen en diverse taken uit te voeren in dynamische menselijke omgevingen.
Een cruciale uitdaging in de robotica is het verkrijgen van enorme en diverse datasets voor training. NVIDIA pakt dit aan met Isaac GR00T-Dreams, een baanbrekende blauwdruk gebaseerd op NVIDIA Cosmos fysieke AI-wereldfundamentmodellen. Huang beschreef dit als een "real-to-real dataworkflow" waarbij AI op ingenieuze wijze wordt gebruikt om menselijke demonstraties te versterken. Ontwikkelaars kunnen Cosmos verfijnen met initiële, door mensen op afstand uitgevoerde demonstraties van een taak. Vervolgens kunnen ze met GR00T-Dreams het model voorzien van nieuwe scenario's of instructies om een veelvoud aan "dromen" te genereren. synthetische videosequenties van de robot die nieuwe acties uitvoertDeze 2D-droomvideo's worden omgezet in 3D-actietrajecten om het GR00T-robotmodel te trainen. "Een klein team van menselijke demonstratoren kan nu het werk van duizenden doen", legde Huang uit, en benadrukte hoe dit de datageneratie aanzienlijk vergroot.
Dit complete ecosysteem, inclusief de Isaac Sim (nu open source op GitHub voor simulatie), Isaac Lab voor robotleren, de geavanceerde Newton-fysica-engine ontwikkeld met Google DeepMind en Disney Research, en Cosmos-wereldmodellen, biedt een uitgebreid cloud-naar-robotplatform. Huang voorziet dat "fysieke AI en robotica de volgende industriële revolutie teweeg zullen brengen", met humanoïde robots, die bij uitstek geschikt zijn voor menselijke omgevingen in "brownfields", en mogelijk "de volgende miljardenindustrie" zullen worden.
DGX Spark, Station en Cloud Lepton
NVIDIA blijft zich inspannen om toegang tot high-performance computing mogelijk te maken met belangrijke updates rondom zijn DGX-aanbod, van wereldwijde cloudmarktplaatsen tot krachtige persoonlijke AI-supercomputers.
Een belangrijk nieuw initiatief dat werd onthuld, was NVIDIA DGX Cloud Lepton, een AI-platform met een rekenmarktplaats die is ontworpen om AI-ontwikkelaars wereldwijd te verbinden met tienduizenden GPU's. Dit platform beoogt cloud-AI-services en toegang tot GPU-capaciteit te verenigen via een wereldwijd netwerk van NVIDIA Cloud Partners, zoals CoreWeave, Crusoe, Foxconn en SoftBank Corp. Deze partners zullen NVIDIA Blackwell en andere NVIDIA-architectuur-GPU's aanbieden op de DGX Cloud Lepton-marktplaats. Ontwikkelaars kunnen gebruikmaken van rekencapaciteit in specifieke regio's voor on-demand en langetermijnbehoeften, ter ondersteuning van strategische en onafhankelijke AI-activiteiten. DGX Cloud Lepton integreert met NVIDIA's softwarestack, inclusief NIM- en NeMo-microservices, om de ontwikkeling en implementatie van AI-applicaties te vereenvoudigen en in samenwerking met zijn NCP's een AI-fabriek op planetaire schaal te creëren.
Terwijl DGX Cloud Lepton zich richt op brede cloudtoegang, benadrukte NVIDIA het groeiende ecosysteem voor zijn persoonlijke AI-supercomputers, NVIDIA DGX Spark en DGX Station. De nadruk lag op het versterken van partnerschappen en het vergroten van de beschikbaarheid via meer leveranciers. Deze systemen worden gepositioneerd als AI-native computers voor ontwikkelaars, studenten en onderzoekers die een dedicated AI-cloudomgeving wensen.
- DGX Spark, aangestuurd door de NVIDIA GB10 Grace Blackwell Superchip, biedt tot 1 petaflop aan AI-rekenkracht. De productie is nu in volle gang en zal binnenkort verkrijgbaar zijn bij een uitgebreide lijst met partners, waaronder Acer, ASUS, Dell Technologies, GIGABYTE, HP, Lenovo en MSI.
- DGX Station wordt ook breder geaccepteerd door partners, met de NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip voor AI-prestaties tot 20 petaflops. Deze zal later dit jaar verkrijgbaar zijn bij ASUS, Dell Technologies, GIGABYTE, HP en MSI en biedt een desktopoplossing die AI-modellen met biljoenen parameters kan draaien.
Lancering van de Nvidia RTX 5060
Als aanvulling op de uitgebreide Computex-aankondigingen lanceerde NVIDIA ook de NVIDIA GeForce RTX 5060. De RTX 5060 is vanaf vandaag verkrijgbaar als uitbreidingskaart van partners en als geïntegreerde kaart in nieuwe gaminglaptops. De RTX XNUMX is bedoeld om aantrekkelijke prestaties en functies te bieden aan een breder publiek.
De RTX 5060, gebouwd op de Blackwell-architectuur, biedt ondersteuning voor DLSS 4 en maakt gebruik van NVIDIA's nieuwste AI-gestuurde superresolutie- en framegeneratietechnologie. Hij beschikt over 614 AI TOPS (INT4) voor verbeterde AI-verwerkingsmogelijkheden. De kaart is voorzien van 5e generatie Tensor Cores en 4e generatie RT Cores voor verbeterde raytracing en AI-prestaties. Voor mediaverwerking is hij voorzien van één 9e generatie NVIDIA Encoder (NVENC) en één 6e generatie NVIDIA Decoder (NVDEC). De RTX 5060 heeft 8 GB GDDR7-geheugen, wat een geheugenbandbreedte van 448 GB/s biedt, wat zorgt voor soepele prestaties bij moderne games en creatieve workloads.
Al deze updates weerspiegelen de strategie van NVIDIA om krachtige AI-hulpmiddelen en computerbronnen beter beschikbaar te maken via enorme cloudnetwerken of speciale, krachtige desktopsystemen. Zo kunnen ontwikkelaars op elke schaal deelnemen aan de AI-revolutie.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed