StorageReview.com
AI  ◇  DPU  ◇  Unternehmen  ◇  Networking   ◇  Server  ◇  Server-Rack

NVIDIA stellt auf der CES 2026 die Vera-Rubin-Architektur vor: Das VR NVL72 Rack

Auf der CES 2026 präsentierte NVIDIA die Rubin-Plattform, deren Herzstück das Rack-Scale-System Vera Rubin NVL72 bildet. Es handelt sich dabei um NVIDIAs Rack-Scale-Architektur der dritten Generation, die sechs gemeinsam entwickelte Chips in einem einzigen, einheitlichen System vereint. Die Plattform wird in der zweiten Jahreshälfte 2026 über Partner verfügbar sein. Alle sechs Chips sind bereits aus der Fertigung zurück und werden derzeit getestet.

AI  ◇  Unternehmen

AMD stellt die Ryzen AI Embedded P100- und X100-Serien für Edge-Inferenz vor

AMD hat seine neue Ryzen AI Embedded Prozessorreihe vorgestellt. Dieses Portfolio zielt auf KI-Workloads am Netzwerkrand für die Automobilindustrie, die industrielle Automatisierung und neue physikalische KI-Plattformen, einschließlich humanoider Robotik, ab. Den Startschuss gibt es mit der Ryzen AI Embedded P100-Serie und der kommenden X100-Serie. Diese Prozessoren kombinieren Zen 5 CPU-Kerne, RDNA 3.5-Grafik und …

AI  ◇  Unternehmen

VAST Data stellt eine DPU-native Inferenzarchitektur für gemeinsam genutzten KV-Cache und langlebige agentenbasierte KI vor.

VAST Data hat eine neue Inferenzarchitektur vorgestellt, die die NVIDIA Inference Context Memory Storage Platform unterstützt. Dieses System ist auf KI-Anwendungen mit fortlaufenden, mehrstufigen agentengesteuerten Sitzungen ausgerichtet. VAST präsentiert diese Plattform als speziell für KI entwickelte Speicherklasse, die den Zugriff auf den Key-Value-Cache (KV-Cache) verbessert und die schnelle gemeinsame Nutzung des Inferenzkontexts zwischen Knoten ermöglicht.

AI  ◇  Unternehmen

NVIDIA DGX Spark erzielt 2.5-fache Leistung und 8-fache Videogeschwindigkeit im CES 2026 Enterprise Update

Auf der CES 2026 stellte NVIDIA ein Software-Update für DGX Spark vor, das dessen Rolle als kompaktes, lokales KI-System erweitert. Die Änderungen konzentrieren sich auf neue Laufzeitumgebungen, Quantisierungsformate und Bereitstellungs-Playbooks, die das lokale Ausführen von Open-Source-Modellen, automatisierten Workflows sowie Creator- und 3D-Pipelines vereinfachen. Das Update richtet sich an Teams, die bereits mit DGX Spark arbeiten.

AI  ◇  Unternehmen

Supermicro erweitert Flüssigkeitskühlung für NVIDIA Vera Rubin NVL72- und HGX Rubin NVL8-Plattformen

Supermicro kündigte erweiterte Fertigungskapazitäten für Rack-Systeme und verbesserte Direktflüssigkeitskühlung an, um die kommenden Plattformen NVIDIA Vera Rubin NVL72 und NVIDIA HGX Rubin NVL8 zu unterstützen. Das Unternehmen positioniert sich damit, um die Bereitstellungszeiten für hochdichte KI-Infrastrukturen zu verkürzen, indem es die hauseigene Entwicklung und Fertigung in den USA mit seinen Data Center Building Block Solutions (DCBBS) kombiniert.

AI  ◇  Unternehmen

NVIDIA RTX PRO 5000 72GB Blackwell-GPU erweitert Desktop-Optionen für Agentic AI

Die NVIDIA RTX PRO 5000 72GB Blackwell GPU ist ab sofort allgemein erhältlich und bietet Rechenleistung der Blackwell-Klasse für eine breitere Palette professioneller Desktop-PCs. Die neue Konfiguration richtet sich an technisch versierte Anwender, die agentenbasierte und generative KI entwickeln und einsetzen, und adressiert speicherbeschränkte Workflows, die die Anforderungen von Workstation-GPUs der vorherigen Generation überstiegen haben. Als Ergänzung zum bestehenden RTX PRO 5000 48GB-Modell bietet die

AI  ◇  Unternehmen

NVIDIA erweitert Open HPC- und KI-Stack mit der Übernahme von SchedMD und Nemotron 3

NVIDIA hat zwei bedeutende Schritte im Bereich High-Performance Computing und KI angekündigt: die Übernahme von SchedMD, dem Unternehmen hinter dem Workload-Manager Slurm, und die Einführung der Nemotron 3-Familie offener Modelle, Daten und Tools für Multiagenten-KI. Diese Maßnahmen stärken NVIDIAs Position in den Bereichen HPC, generative KI und KI-Infrastruktur für Unternehmen und sichern gleichzeitig die Marktführerschaft.

AI  ◇  Unternehmen

Vultr, AMD und NetApp entwickeln einen Hybrid-Cloud-Plan für KI und souveräne Daten

Vultr, AMD und NetApp, alle Mitglieder der Vultr Cloud Alliance, haben eine neue Referenzarchitektur entwickelt, die auf datenintensive und KI-Workloads in hybriden und souveränen Cloud-Umgebungen ausgerichtet ist. Das Design richtet sich an Unternehmen, die verteilte Daten konsolidieren, KI beschleunigen und Datenlokalität sowie Compliance-Kontrollen durchsetzen müssen, ohne die betriebliche Komplexität zu erhöhen. Die Architektur kombiniert

AI  ◇  Unternehmen

Lenovo erweitert das ThinkSystem- und ThinkAgile-Portfolio um KI-fähige Speicher- und Virtualisierungslösungen.

Lenovo hat sein Angebot an Datenspeicher-, Virtualisierungs- und Datenmanagementdiensten erweitert. Diese richten sich an Unternehmen und mittelständische Betriebe, die ihre Infrastruktur für KI und anspruchsvolle Anwendungen modernisieren möchten. Die Ankündigung hebt neue Lenovo ThinkSystem- und ThinkAgile-Lösungen sowie ein erweitertes Portfolio an Datenmanagementdiensten hervor, um eine einheitlichere Dateninfrastruktur zu schaffen.

AI  ◇  Unternehmen

Die AMD EPYC Embedded 2005-Serie zielt auf energie- und platzsparende Infrastrukturen ab.

Die AMD EPYC Embedded 2005-Serie ist für Netzwerk-, Speicher- und Industrieanwendungen konzipiert, bei denen Leistung, Wärmeentwicklung und Platinenplatz stark eingeschränkt sind. Die Serie konzentriert sich auf hohe Rechendichte und Leistung pro Watt in einem kompakten 40 mm x 40 mm BGA-Gehäuse und zielt auf Plattformen ab, die kontinuierlich arbeiten und erweiterte Serviceleistungen erbringen müssen.