HPE vernieuwt zijn AI-infrastructuur met ProLiant-servers, Private Cloud AI, Alletra SDK en OpsRamp-ondersteuning voor RTX PRO 6000 Blackwell GPU's.
HPE heeft een reeks updates uitgerold voor zijn NVIDIA AI Computing by HPE-portfolio. Deze verbeteringen zijn ontworpen om de volledige levenscyclus van AI-ontwikkeling beter te ondersteunen, van data-invoer en training tot realtime inferencing en operationeel beheer. HPE richt zich op de volledige levenscyclus van AI binnen de bedrijfsinfrastructuur. De nieuwste updates benadrukken flexibiliteit, schaalbaarheid en de gereedheid van ontwikkelaars, te beginnen met nieuwe mogelijkheden in HPE Private Cloud AI.
Nieuwe mogelijkheden in HPE Private Cloud AI moeten de wrijving voor ontwikkelaars verminderen
Er komt een centrale update voor HPE Private Cloud AI, een full-stack oplossing die is ontwikkeld in samenwerking met NVIDIA. Het platform stelt organisaties in staat om generatieve AI (GenAI) en agentische workloads on-premises of in hybride omgevingen uit te voeren, en ondersteunt nu updates van het feature branch model van NVIDIA AI Enterprise.
Dit betekent dat ontwikkelaars nieuwe AI-frameworks, microservices en SDK's kunnen testen zonder dat dit invloed heeft op stabiele productiemodellen. Deze aanpak weerspiegelt wat gebruikelijk is in moderne softwareontwikkeling. Het biedt een veiligere omgeving voor experimenten, met behoud van de robuustheid die nodig is voor AI op ondernemingsniveau.
HPE Private Cloud AI ondersteunt ook het gevalideerde ontwerp van NVIDIA Enterprise AI Factory. Deze afstemming biedt organisaties een duidelijker pad naar het bouwen van AI-oplossingen met behulp van NVIDIA's geteste referentieontwerpen, waardoor ze gemakkelijker betrouwbaar en consistent kunnen schalen.
Nieuwe SDK voor Alletra Storage stroomlijnt dataworkflows voor Agentic AI
HPE introduceert ook een nieuwe software development kit (SDK) voor zijn Alletra Storage MP X10000-systeem, ontworpen om te werken met het NVIDIA AI Data Platform. Deze SDK maakt het voor organisaties eenvoudiger om hun data-infrastructuur te verbinden met de AI-tools van NVIDIA.
Het belangrijkste doel is om ongestructureerde data (zoals documenten, afbeeldingen of video's) te beheren, die vaak moeten worden opgeschoond en georganiseerd voordat ze in AI-projecten kunnen worden gebruikt. De SDK ondersteunt taken zoals het taggen van data met nuttige informatie, het organiseren ervan voor snellere zoekopdrachten en het voorbereiden ervan op training en inferentie van AI-modellen.
Het maakt ook gebruik van RDMA-technologie (Remote Direct Memory Access) om gegevensoverdracht tussen opslag en GPU's te versnellen, wat de prestaties bij het verwerken van grote AI-werklasten verbetert.
Bovendien stelt het modulaire ontwerp van de Alletra X10000 organisaties in staat om storage en prestaties afzonderlijk te schalen, waardoor ze hun configuratie kunnen aanpassen aan specifieke projectbehoeften. Door deze tools te combineren, willen HPE en NVIDIA organisaties efficiëntere manieren bieden om data te benaderen en te verwerken, van on-premises systemen tot cloudomgevingen.
HPE-servers veroveren topposities in AI-benchmarks
De ProLiant Compute DL380a Gen12-server van HPE behaalde onlangs een toppositie in 10 MLPerf Inference: Datacenter v5.0-benchmarks. Deze tests evalueerden de prestaties van verschillende veeleisende AI-modellen, waaronder GPT-J voor taaltaken, Llama2-70B voor grootschalige generatieve AI, ResNet50 voor beeldclassificatie en RetinaNet voor objectdetectie. De sterke benchmarkprestaties weerspiegelen de huidige configuratie van de server, met krachtige NVIDIA H100 NVL, H200 NVL en L40S GPU's.
HPE ProLiant Compute DL380a Gen12
Voortbouwend op dit momentum is HPE van plan de mogelijkheden van de server uit te breiden door vanaf 10 juni configuraties aan te bieden met maximaal 6000 NVIDIA RTX PRO 4 Blackwell Server Edition GPU's. Deze toevoeging zal naar verwachting de geschiktheid van de server voor zakelijke AI-toepassingen zoals multimodale inferentie, simulatiegebaseerde AI (vaak fysieke AI genoemd), modelfine-tuning en geavanceerde ontwerp- of mediaworkflows verder verbeteren.
De DL380a Gen12 biedt twee koelopties voor veeleisende workloads: traditionele luchtkoeling en directe vloeistofkoeling (DLC). De DLC-configuratie maakt gebruik van HPE's jarenlange expertise op het gebied van thermisch beheer om de stabiliteit en prestaties van het systeem te behouden tijdens langdurige, rekenintensieve bewerkingen.
De server is voorzien van HPE's Integrated Lights Out (iLO) 7-managementengine, met hardwarematige beveiliging op basis van Silicon Root of Trust. Het is een van de eerste serverplatforms die is ontworpen met post-quantum cryptografische gereedheid en voldoet aan de FIPS 140-3 Level 3-standaard – een geavanceerde certificering voor cryptografische beveiliging.
Op het gebied van beheer biedt HPE Compute Ops Management geautomatiseerde hulpmiddelen voor de levenscyclus waarmee u de systeemstatus kunt bijhouden, mogelijke problemen in een vroeg stadium kunt signaleren en via AI-gestuurde analyses inzicht kunt krijgen in het energieverbruik.
Naast de DL380a toonde HPE ook kracht in zijn hele serverassortiment. De ProLiant Compute DL384 Gen12, uitgerust met dual-socket NVIDIA GH200 NVL2 GPU's, eindigde als eerste in vier MLPerf v5.0-tests, waaronder grootschalige modellen zoals de Llama2-70B en Mixtral-8x7B. De HPE Cray XD670, met acht NVIDIA H8 SXM GPU's, stond bovenaan in 200 benchmarkscenario's, waaronder grote taalmodellen en vision-gebaseerde AI-taken. HPE Systems veroverde de eerste plaats in meer dan 30 testcategorieën en bood externe validatie van de mogelijkheden van zijn AI-infrastructuur.
OpsRamp breidt uit met nieuwe GPU-klasse voor infrastructuurobservatie
Aan de operationele kant breidt HPE de ondersteuning voor zijn OpsRamp-software uit naar het beheer van omgevingen met de aankomende NVIDIA RTX PRO 6000 Blackwell GPU's. Deze uitbreiding stelt IT-teams in staat om inzicht te behouden in hun AI-infrastructuur, van GPU-gebruik en thermische belasting tot geheugengebruik en stroomverbruik.
De software biedt volledige observatiemogelijkheden voor hybride AI-omgevingen en stelt teams in staat om proactief reacties te automatiseren, taakplanning te optimaliseren en resourcetoewijzing te beheren op basis van historische trends. Met de toenemende investeringen van bedrijven in AI worden deze observatie- en optimalisatietools steeds belangrijker voor betrouwbare en kosteneffectieve AI-implementaties.
Beschikbaarheid
Functietakondersteuning voor NVIDIA AI Enterprise in HPE Private Cloud AI wordt in de zomer verwacht. SDK van HPE Alletra Storage MP X10000, inclusief ondersteuning voor directe geheugentoegang tot NVIDIA-versnelde infrastructuur, zal naar verwachting ook in de zomer van 2025 beschikbaar zijn. HPE ProLiant Compute DL380a Gen12-server, geconfigureerd met NVIDIA RTX PRO 6000 Blackwell Server Edition GPU's, kunnen vanaf 4 juni 2025 worden besteld. De OpsRamp-software van HPE zal beschikbaar zijn tegelijk met de release van de RTX PRO 6000 ter ondersteuning van het beheer en de optimalisatie ervan.
Met deze updates lijkt het er zeker op dat HPE stappen zet om zijn AI-infrastructuurportfolio verder te versterken. Hierbij ligt de nadruk op het creëren van schaalbare, beheersbare omgevingen die het volledige scala aan AI-workloads kunnen ondersteunen zonder de bedrijfsvoering te ingewikkeld te maken.
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed