HPE Private Cloud AI, unterstützt von NVIDIA, optimiert die KI-Bereitstellung in Unternehmen mit verbesserter Sicherheit, Effizienz und Skalierbarkeit.
Hewlett Packard Enterprise (HPE) und NVIDIA haben eine Reihe verbesserter KI-Lösungen für Unternehmen vorgestellt, die die Bereitstellung generativer, agentischer und physischer KI-Workloads optimieren. Unter dem Dach von NVIDIA AI Computing by HPE verbessern diese neuen Angebote Leistung, Energieeffizienz, Sicherheit und Leistungsfähigkeit und bilden eine umfassende, schlüsselfertige Private Cloud, die auf Unternehmen jeder Größe zugeschnitten ist. So können Unternehmen fortschrittliche KI-Modelle effizient trainieren, optimieren und bereitstellen.
Antonio Neri, Präsident und CEO von HPE, betonte die zunehmende Bedeutung integrierter KI-Lösungen und betonte, dass die Zusammenarbeit mit NVIDIA Unternehmen dabei hilft, KI schneller zu nutzen, um ihre Produktivität zu steigern und neue Einnahmequellen zu erschließen. Jensen Huang, Gründer und CEO von NVIDIA, bekräftigte dies und verwies auf die transformative Wirkung von KI in allen Branchen. Huang bezeichnete die Zusammenarbeit zwischen NVIDIA und HPE als essenziell für Unternehmen, die skalierbare KI-Fabriken aufbauen und so Produktivität und Innovation von generativer und agentenbasierter KI bis hin zu Robotik und digitalen Zwillingen freisetzen.
Schlüsselfertige KI-Bereitstellung mit HPE Private Cloud AI und NVIDIA AI Data Platform
Die HPE Private Cloud KI-Plattform unterstützt jetzt die NVIDIA KI-Datenplattform und bietet Unternehmen den schnellsten Weg, umsetzbare Erkenntnisse aus ihren Daten zu gewinnen. Durch die Nutzung der Self-Service-Funktionen der HPE GreenLake Cloud ermöglicht die Integration eine kontinuierliche, beschleunigte Datenverarbeitung unter Nutzung der beschleunigten Rechenleistung, der Vernetzung, der KI-Software und des Enterprise-Speichers von NVIDIA.
Gemeinsame Entwicklungsanstrengungen zwischen HPE und NVIDIA gewährleisten eine schnelle Bereitstellung branchenführender Blueprints und Modelle, darunter NVIDIA AI-Q Blueprints und NVIDIA NIM-Microservices, die für die leistungsstarken NVIDIA Llama Nemotron-Modelle optimiert sind und die Denkfähigkeiten in KI-Systemen verbessern.
Zu den weiteren Verbesserungen der HPE Private Cloud KI gehört ein dediziertes KI-Entwicklersystem, das eine sofortige KI-Entwicklungsumgebung mit integrierten Steuerungsknoten, NVIDIA Accelerated Computing, KI-Software-Stacks und 32 TB integriertem Speicher bietet. Darüber hinaus führt die HPE Data Fabric Software eine einheitliche, nahtlose Datenschicht ein und gewährleistet so eine konsistente Datenqualität in hybriden Umgebungen für strukturierte, unstrukturierte und Streaming-Daten.
Durch die Einbeziehung vorab validierter NVIDIA Blueprints, wie beispielsweise multimodale PDF-Datenextraktion und digitale Zwillinge, wird die Wertschöpfungszeit erheblich verkürzt, sodass Unternehmen schnell anspruchsvolle KI-gesteuerte Workloads bereitstellen können.
KI-native Observability mit HPE OpsRamp
HPE OpsRamp führt die Full-Stack-GPU-Optimierung für KI-native Software-Stacks ein. Diese neue Funktion bietet Unternehmen umfassende Transparenz zur Überwachung und Optimierung der Leistung großer NVIDIA Accelerated Computing-Cluster. Als Teil von HPE Private Cloud AI und als eigenständiges Angebot vereinfachen diese Funktionen die laufende Verwaltung und den operativen Support.
Darüber hinaus bietet HPE neue Day-2-Betriebsdienste an, die den HPE Complete Care Service mit der NVIDIA-GPU-Optimierung kombinieren und es IT-Teams ermöglichen, komplexe KI-Workloads in hybriden Umgebungen proaktiv zu verwalten, Fehler zu beheben und zu optimieren.
Anwendungsfälle und professionelle Dienstleistungen für Agenten-KI
Um der wachsenden Marktnachfrage nach agentenbasierter KI gerecht zu werden, kündigte HPE mehrere strategische Erweiterungen an. HPE und Deloitte bringen Deloittes Zora AI for Finance über HPE Private Cloud AI auf den Markt und transformieren damit traditionelle Finanzberichte für Führungskräfte in dynamische, interaktive Erlebnisse. Erste Implementierungen unterstützen Bilanzanalysen, Szenariomodellierung und Wettbewerbsmarktbewertungen, wobei HPE die Lösung als erstes einführt.
Darüber hinaus hat sich CrewAI dem Unleash AI-Programm von HPE angeschlossen und integriert die Multi-Agent-Automatisierung mit HPE Private Cloud AI, um schnell maßgeschneiderte KI-Agenten zu entwickeln und einzusetzen und so die organisatorische Effizienz zu steigern und intelligentere Entscheidungen zu treffen.
Um die Einführung von KI in Unternehmen weiter zu fördern, bietet HPE jetzt gezielte professionelle Services zur Identifizierung, Erstellung und Bereitstellung agentenbasierter KI-Lösungen unter Verwendung der robusten NIM-Mikroservices und der NeMo-Technologie von NVIDIA an, wodurch der Geschäftswert weiter gesteigert wird.
Neue HPE-Server mit NVIDIA Blackwell-Architektur
NVIDIA AI Computing von HPE präsentiert Server der nächsten Generation auf Basis der NVIDIA Blackwell Ultra- und Blackwell-Architekturen, optimiert für KI-Training, Feinabstimmung und Inferenz-Workloads. Zu diesen neuen Systemen zählt der NVIDIA GB300 NVL72 von HPE, der Serviceprovider und Unternehmensimplementierungen für riesige KI-Cluster unterstützt. Er bietet optimierte Rechenleistung, umfangreichen Speicher und fortschrittliche Netzwerkfunktionen, die durch HPEs branchenführende Expertise im Bereich Flüssigkeitskühlung optimiert werden.
HPE ProLiant Compute DL380a Gen12
Die neuen HPE ProLiant Compute XD Server mit NVIDIA HGX B300-Plattformen eignen sich für anspruchsvolle Workloads wie agentenbasierte KI und logisches Denken. Der HPE ProLiant Compute DL384b Gen12 mit NVIDIA GB200 Grace Blackwell NVL4 Superchips revolutioniert die Leistung für konvergente HPC- und KI-Workloads, darunter Graph-Neural-Network-Training und wissenschaftliches Rechnen. Der HPE ProLiant Compute DL380a Gen12 mit NVIDIA RTX PRO 6000 Blackwell Server Edition ist auf Enterprise-Inferenz- und Visual-Computing-Workloads ausgerichtet.
Verbesserte Sicherheit über den gesamten Lebenszyklus mit HPE ProLiant Gen12
Die neuen Server der ProLiant Compute Gen12-Serie bieten erweiterte Sicherheit in jeder Lebenszyklusphase, basierend auf der Silicon Root of Trust-Technologie von HPE. Ergänzt durch einen dedizierten Secure Enclave Security-Prozessor bilden diese Server eine robuste Vertrauenskette und schützen vor Bedrohungen auf Firmware-Ebene – von der Herstellung bis zur Auslieferung. HPE iLO 7, die branchenweit erste Servermanagementlösung mit Post-Quantum-Kryptografie, erfüllt die strenge Sicherheitszertifizierung FIPS 140-3 Level 3 und bietet zuverlässigen Schutz vor neuen Bedrohungen.
Modulare, energieeffiziente Rechenzentren, maßgeschneidert für KI
HPE setzt seine fünf Jahrzehnte lange Tradition in fortschrittlicher Flüssigkeitskühlungstechnologie fort, die sich in acht der 15 energieeffizientesten Supercomputer der Welt (Green500-Ranking) bewährt hat. Um dem steigenden Energiebedarf von KI-Workloads gerecht zu werden, bietet HPEs neuer modularer AI Mod POD eine hochdichte, leistungsoptimierte Rechenzentrumslösung mit bis zu 1.5 MW pro Modul. Dank der patentierten Adaptive Cascade Cooling-Technologie unterstützt die modulare Infrastruktur sowohl herkömmliche Luftkühlung als auch vollständig flüssigkeitsgekühlte Umgebungen. Dies reduziert den Energieverbrauch deutlich und beschleunigt die Bereitstellung.
Verfügbarkeit
- HPE Private Cloud KI-Entwicklersystem: Verfügbar ab Q2 2025.
- HPE Data Fabric in Private Cloud AI: Verfügbar ab Q3 2025.
- NVIDIA GB300 NVL72 und HPE ProLiant Compute XD mit NVIDIA HGX B300: Verfügbar in der zweiten Hälfte des Jahres 2025.
- HPE ProLiant Compute DL384b Gen12 mit NVIDIA GB200 NVL4: Verfügbar ab Q4 2025.
- HPE ProLiant Compute DL380a Gen12 mit NVIDIA RTX PRO 6000 Blackwell Server Edition: Verfügbar ab Q3 2025.
- Vorab validierte NVIDIA Blueprints: Verfügbar ab Q2 2025.
- HPE OpsRamp GPU-Optimierung und AI Mod POD: Sofort verfügbar.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed