Home EnterpriseNetApp AI & Run: AI-partner voor snellere AI-experimenten

NetApp AI & Run: AI-partner voor snellere AI-experimenten

by Adam Amstrong
NetApp Run:AI

Vandaag heeft het bedrijf op NetApp Insight aangekondigd dat het samenwerkt met het virtualiserende AI-infrastructuurbedrijf, Run:AI, om snellere AI-experimenten met volledig GPU-gebruik mogelijk te maken. De twee bedrijven zullen AI versnellen door veel experimenten parallel uit te voeren, met snelle toegang tot gegevens en gebruik te maken van onbeperkte rekenbronnen. Het doel is het beste van alle werelden: snellere experimenten met volledige benutting van de middelen.

Vandaag heeft het bedrijf op NetApp Insight aangekondigd dat het samenwerkt met het virtualiserende AI-infrastructuurbedrijf, Run:AI, om snellere AI-experimenten met volledig GPU-gebruik mogelijk te maken. De twee bedrijven zullen AI versnellen door veel experimenten parallel uit te voeren, met snelle toegang tot gegevens en gebruik te maken van onbeperkte rekenbronnen. Het doel is het beste van alle werelden: snellere experimenten met volledige benutting van de middelen.

NetApp Run:AI

Snelheid is een cruciaal aspect geworden van de meeste moderne workloads. AI-experimenten zijn echter iets nauwer verbonden met snelheid, aangezien hoe sneller de experimenten zijn, hoe nauwer de succesvolle bedrijfsresultaten zijn. Hoewel dit geen geheim is, hebben AI-projecten last van processen die ze niet erg efficiënt maken, voornamelijk de combinatie van gegevensverwerkingstijd en verouderde opslagoplossingen. Andere problemen die het aantal uitgevoerde experimenten kunnen beperken, zijn problemen met werkbelasting en statische toewijzing van GPU-rekenbronnen.

NetApp AI en Run:AI werken samen om het bovenstaande aan te pakken. Dit betekent een vereenvoudiging van de orkestratie van AI-workloads, waardoor het proces van zowel datapijplijnen als machineplanning voor deep learning (DL) wordt gestroomlijnd. Met de bewezen architectuur van NetApp ONTAP AI stelt het bedrijf dat klanten AI en DL beter kunnen realiseren door hun datapijplijn te vereenvoudigen, te versnellen en te integreren. Aan de kant van Run:AI voegt de orkestratie van AI-workloads een eigen Kubernetes-gebaseerd platform voor planning en resourcegebruik toe om onderzoekers te helpen bij het beheren en optimaliseren van het GPU-gebruik. Door de gecombineerde technologie kunnen verschillende experimenten parallel worden uitgevoerd op verschillende rekenknooppunten, met snelle toegang tot veel datasets op gecentraliseerde opslag.

Run:AI bouwde wat het 's werelds eerste orkestratie- en virtualisatieplatform voor AI-infrastructuur noemt. Ze onttrekken de werklast van de hardware en creëren gedeelde pools van GPU-resources die dynamisch kunnen worden ingericht. Door dit op de opslagsystemen van NetApp uit te voeren, kunnen onderzoekers zich concentreren op hun werk zonder zich zorgen te hoeven maken over knelpunten.

NetApp

Uitvoeren: AI

Neem contact op met StorageReview

Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed