HPE aktualisiert seine KI-Infrastruktur mit ProLiant-Servern, Private Cloud AI, Alletra SDK und OpsRamp-Unterstützung für RTX PRO 6000 Blackwell GPUs.
HPE hat zahlreiche Updates für sein NVIDIA AI Computing by HPE-Portfolio veröffentlicht. Diese Verbesserungen sollen den gesamten Lebenszyklus der KI-Entwicklung – von der Datenaufnahme und dem Training bis hin zu Echtzeit-Inferenz und Betriebsmanagement – besser unterstützen. HPE konzentriert sich auf den gesamten Lebenszyklus von KI in der Unternehmensinfrastruktur. Die neuesten Updates legen den Schwerpunkt auf Flexibilität, Skalierbarkeit und Entwicklerbereitschaft, beginnend mit neuen Funktionen in HPE Private Cloud AI.
Neue Funktionen in HPE Private Cloud AI sollen die Reibungsverluste für Entwickler verringern
HPE Private Cloud AI, eine Full-Stack-Lösung, die in Zusammenarbeit mit NVIDIA entwickelt wurde, erhält ein zentrales Update. Die Plattform ermöglicht es Unternehmen, generative KI (GenAI) und agentenbasierte Workloads vor Ort oder in hybriden Umgebungen auszuführen und unterstützt nun Feature-Branch-Modell-Updates von NVIDIA AI Enterprise.
Das bedeutet, dass Entwickler neue KI-Frameworks, Microservices und SDKs testen können, ohne stabile Produktionsmodelle zu beeinträchtigen. Dieser Ansatz entspricht dem gängigen Vorgehen in der modernen Softwareentwicklung. Er bietet eine sicherere Umgebung für Experimente und gewährleistet gleichzeitig die für KI im Unternehmensmaßstab erforderliche Robustheit.
HPE Private Cloud AI unterstützt außerdem das validierte Design der NVIDIA Enterprise AI Factory. Diese Ausrichtung ermöglicht Unternehmen einen klareren Weg zum Aufbau von KI-Lösungen mit den getesteten Referenzdesigns von NVIDIA und erleichtert so eine zuverlässige und konsistente Skalierung.
Neues SDK für Alletra Storage optimiert Daten-Workflows für Agentic AI
HPE bringt außerdem ein neues Software Development Kit (SDK) für sein Alletra Storage MP X10000-System auf den Markt, das für die Zusammenarbeit mit der NVIDIA AI Data Platform entwickelt wurde. Dieses SDK erleichtert Unternehmen die Anbindung ihrer Dateninfrastruktur an die KI-Tools von NVIDIA.
Das Hauptziel besteht darin, unstrukturierte Daten (z. B. Dokumente, Bilder oder Videos) zu verwalten, die häufig bereinigt und organisiert werden müssen, bevor sie in KI-Projekten verwendet werden können. Das SDK unterstützt Aufgaben wie das Taggen von Daten mit hilfreichen Informationen, das Organisieren für schnellere Suchvorgänge und die Vorbereitung für das Training und die Inferenz von KI-Modellen.
Außerdem nutzt es die RDMA-Technologie (Remote Direct Memory Access), um die Datenübertragung zwischen Speicher und GPUs zu beschleunigen, was zur Leistungssteigerung bei der Verarbeitung großer KI-Workloads beiträgt.
Darüber hinaus ermöglicht das modulare Design des Alletra X10000 Unternehmen die separate Skalierung von Speicher und Leistung und ermöglicht so die Anpassung ihres Setups an spezifische Projektanforderungen. Durch die Kombination dieser Tools wollen HPE und NVIDIA Unternehmen effizientere Möglichkeiten für den Zugriff und die Verarbeitung von Daten bieten – von lokalen Systemen bis hin zu Cloud-basierten Umgebungen.
HPE-Server sichern sich Spitzenplätze in KI-Benchmarks
Der HPE ProLiant Compute DL380a Gen12 Server erreichte kürzlich Spitzenplätze in zehn MLPerf Inference: Datacenter v10 Benchmarks. Diese Tests bewerteten die Leistung verschiedener anspruchsvoller KI-Modelle, darunter GPT-J für Sprachaufgaben, Llama5.0-2B für groß angelegte generative KI, ResNet70 für Bildklassifizierung und RetinaNet für Objekterkennung. Die starke Benchmark-Leistung spiegelt die aktuelle Konfiguration des Servers wider, die leistungsstarke NVIDIA H50 NVL-, H100 NVL- und L200S-GPUs umfasst.
HPE ProLiant Compute DL380a Gen12
Aufbauend auf dieser Dynamik plant HPE, die Fähigkeiten des Servers zu erweitern und ab dem 10. Juni Konfigurationen mit bis zu 6000 NVIDIA RTX PRO 4 Blackwell Server Edition GPUs anzubieten. Diese Ergänzung soll die Eignung des Servers für KI-Unternehmensanwendungen wie multimodale Inferenz, simulationsbasierte KI (oft als physische KI bezeichnet), Modellfeinabstimmung und erweiterte Design- oder Medien-Workflows weiter verbessern.
Der DL380a Gen12 bietet zwei Kühloptionen für anspruchsvolle Workloads: herkömmliche Luftkühlung und direkte Flüssigkeitskühlung (DLC). Die DLC-Konfiguration nutzt die langjährige Erfahrung von HPE im Wärmemanagement, um die Systemstabilität und -leistung auch bei anhaltenden rechenintensiven Vorgängen aufrechtzuerhalten.
Der Server verfügt über die Integrated Lights Out (iLO) 7 Management Engine von HPE und bietet Sicherheitsvorkehrungen auf Hardwareebene mithilfe von Silicon Root of Trust. Er gehört zu den ersten Serverplattformen, die für Post-Quantum-Kryptografie ausgelegt sind und erfüllt den FIPS 140-3 Level 3-Standard – eine erweiterte Zertifizierung für kryptografische Sicherheit.
Im Verwaltungsbereich bietet HPE Compute Ops Management automatisierte Lebenszyklus-Tools, die den Systemzustand verfolgen, potenzielle Probleme frühzeitig erkennen und durch KI-gesteuerte Analysen Einblicke in den Energieverbrauch bieten.
Über den DL380a hinaus zeigte HPE auch in seiner gesamten Serverpalette Stärke. Der ProLiant Compute DL384 Gen12, ausgestattet mit Dual-Socket NVIDIA GH200 NVL2 GPUs, belegte in vier MLPerf v5.0-Tests den ersten Platz, darunter auch bei Großmodellen wie Llama2-70B und Mixtral-8x7B. Der HPE Cray XD670 mit acht NVIDIA H8 SXM GPUs führte in 200 Benchmark-Szenarien, die große Sprachmodelle und visionsbasierte KI-Aufgaben umfassten. HPE-Systeme belegten in über 30 Testkategorien den ersten Platz und boten damit eine unabhängige Validierung ihrer KI-Infrastrukturfähigkeiten.
OpsRamp wird um eine neue GPU-Klasse für die Infrastrukturbeobachtung erweitert
Im operativen Bereich erweitert HPE den Support für seine OpsRamp-Software, um Umgebungen mit den kommenden NVIDIA RTX PRO 6000 Blackwell-Grafikprozessoren zu verwalten. Diese Erweiterung ermöglicht es IT-Teams, den Überblick über ihre KI-Infrastruktur zu behalten – von der GPU-Auslastung und thermischen Belastung bis hin zur Speichernutzung und Leistungsaufnahme.
Die Software ermöglicht umfassende Observability für hybride KI-Umgebungen und ermöglicht es Teams, Reaktionen proaktiv zu automatisieren, die Jobplanung zu optimieren und die Ressourcenzuweisung basierend auf historischen Trends zu verwalten. Angesichts steigender Unternehmensinvestitionen in KI gewinnen diese Observability- und Optimierungstools für zuverlässige und kostengünstige KI-Implementierungen zunehmend an Bedeutung.
Verfügbarkeit
Feature-Branch-Unterstützung für NVIDIA AI Enterprise in HPE Private Cloud AI wird bis zum Sommer erwartet. SDK von HPE Alletra Storage MP X10000, einschließlich der Unterstützung für den direkten Speicherzugriff auf NVIDIA-beschleunigte Infrastruktur, soll ebenfalls im Sommer 2025 verfügbar sein. Die HPE ProLiant Compute DL380a Gen12 Server, konfiguriert mit NVIDIA RTX PRO 6000 Blackwell Server Edition GPUs, kann ab dem 4. Juni 2025 bestellt werden. HPEs OpsRamp-Software wird zeitgleich mit der Veröffentlichung des RTX PRO 6000 verfügbar sein, um dessen Verwaltung und Optimierung zu unterstützen.
Mit diesen Updates scheint HPE sicherlich Schritte zu unternehmen, um sein KI-Infrastrukturportfolio weiter zu stärken. Der Schwerpunkt liegt dabei auf der Schaffung skalierbarer, verwaltbarer Umgebungen, die die gesamte Bandbreite an KI-Workloads unterstützen können, ohne den Betrieb übermäßig zu verkomplizieren.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed