NVIDIA DOCA Argus bietet agentenlose Bedrohungserkennung in Echtzeit für KI-Workloads und verwendet BlueField DPUs, um die Sicherheit ohne Leistungseinbußen zu verbessern.
Da Unternehmen zunehmend KI einsetzen, ist die Sicherung der „KI-Fabrik“ – der Infrastruktur, in der komplexe, agentenbasierte Workflows ausgeführt werden – dringender denn je. Die neuesten Entwicklungen von NVIDIA, insbesondere das DOCA-Software-Framework auf BlueField-DPUs, verändern die Art und Weise, wie Unternehmen die Cybersicherheit von KI-Workloads zur Laufzeit optimieren. Dieser Artikel untersucht die unterschiedlichen Rollen von CPUs und DPUs in diesem Zusammenhang und konzentriert sich darauf, wie DOCA die DPU-Architektur nutzt, um Sicherheit der nächsten Generation zu gewährleisten.
CPUs, DPUs und DOCA
CPUs bilden seit langem das Rückgrat der allgemeinen Computertechnik und bewältigen ein breites Spektrum an Aufgaben von der Anwendungslogik bis zur Systemverwaltung. DPUs hingegen sind speziell dafür konzipiert, datenzentrierte Vorgänge wie Netzwerk-, Speicher- und Sicherheitsprozesse auszulagern und zu beschleunigen, wodurch CPU-Ressourcen für die Kerngeschäftslogik frei werden.
NVIDIA DOCA (Data Center Infrastructure-on-a-Chip Architecture) ist ein Software-Framework, das entwickelt wurde, um das volle Potenzial von BlueField DPUs. DOCA bietet eine Plattform zum Erstellen, Bereitstellen und Verwalten von Rechenzentrumsdiensten – einschließlich erweiterter Sicherheit – direkt auf der DPU, unabhängig von der Host-CPU.
Architekturvergleich: CPU vs. DPU für KI-Sicherheit
Der traditionelle Ansatz für Laufzeitsicherheit basiert auf hostbasierten Agenten, die auf CPUs laufen. Dieses Modell ist zwar in vielen Szenarien effektiv, verursacht aber Overhead, kann die Leistung beeinträchtigen und ist anfällig, wenn der Host kompromittiert wird. DPUs hingegen arbeiten unabhängig vom Host und ermöglichen so effiziente und robuste Out-of-Band-Sicherheitsvorgänge.
Hier ist ein allgemeiner Vergleich von CPU- und DPU-Strategien im Kontext der KI-Sicherheit, unterstützt von DOCA.
Funktion/Fähigkeit | CPU (Host-basiert) | DPU (BlueField mit DOCA) |
---|---|---|
Sicherheitsoperationen | Läuft auf dem Host, verwendet Agenten | Läuft auf DPU, agentenlos |
Auswirkungen auf die Leistung | Kann Overhead verursachen | Kein Overhead für Host-Workloads |
Sichtbarkeit für Angreifer | Sichtbar, kann deaktiviert werden | Unsichtbar, vom Host isoliert |
Integration | Erfordert Host-Integration | Integriert mit Unternehmenssicherheitsplattformen (SIEM, SOAR, XDR) |
Elastizität | Anfällig, wenn der Host kompromittiert ist | Bleibt betriebsbereit, wenn der Host angegriffen wird |
Skalierbarkeit | Durch Hostressourcen begrenzt | Skalierbar mit DPU-Bereitstellung |
DOCA Argus: Agentenlose Bedrohungserkennung in Echtzeit
NVIDIA DOCA Argus veranschaulicht die Vorteile des DPU-zentrierten Ansatzes. Argus läuft vollständig auf der BlueField DPU und bietet Echtzeit-Bedrohungserkennung mithilfe fortschrittlicher Speicherforensik. Laut NVIDIA erreicht es bis zu 1,000-mal schnellere Erkennungsgeschwindigkeiten als herkömmliche agentenlose Lösungen. Dies geschieht ohne Beeinträchtigung der Systemleistung, da alle Sicherheitsvorgänge von der Host-CPU ausgelagert werden.
Das agentenlose Design von Argus macht Software-Agenten oder hostbasierte Integration überflüssig, was die betriebliche Komplexität und die Angriffsfläche reduziert. Da Argus außerhalb des Hosts läuft, bleibt es für Angreifer unsichtbar, selbst wenn das Hostsystem kompromittiert ist. Die Integration mit Enterprise-Sicherheitsplattformen (SIEM, SOAR, XDR) ermöglicht kontinuierliche Überwachung und automatisierte Bedrohungsabwehr und erweitert so bestehende Cybersicherheitsfunktionen auf die KI-Infrastruktur.
Anwendungsfälle: Sicherung von KI-Workloads im großen Maßstab
Mandantenfähige KI-Fabriken
In Umgebungen, in denen mehrere Teams oder Kunden dieselbe KI-Infrastruktur nutzen, ist die Isolierung und der Schutz von Workloads entscheidend. BlueField DPUs mit DOCA Argus bieten Laufzeitschutz für containerisierte und mandantenfähige Umgebungen und stellen sicher, dass Bedrohungen erkannt und eingedämmt werden, ohne die Leistung zu beeinträchtigen oder Änderungen am Host erforderlich zu machen.
Autonome Rechenzentren
Wenn Unternehmen agentenbasierte KI-Modelle und autonome Agenten in großem Umfang einsetzen, steigen Datenvolumen und -geschwindigkeit dramatisch an. DOCA Argus, optimiert mit praxisnaher Bedrohungsanalyse, deckt nur validierte Bedrohungen auf und reduziert so Fehlalarme und Alarmmüdigkeit für Sicherheitsteams. So können Unternehmen auch bei der Skalierung ihrer KI-Operationen eine starke Sicherheitslage aufrechterhalten.
Branchenzusammenarbeit und Ökosystem
NVIDIA und Cisco arbeiten gemeinsam an der Entwicklung sicherer Systeme für künstliche Intelligenz (KI). Durch die Gewährleistung von Sicherheit auf allen Ebenen des KI-Prozesses – von der Hardware bis zur Software – können Unternehmen ihre KI-Anwendungen sicher nutzen und erweitern, da sie von Anfang an auf integrierten Schutz vertrauen.
Wie Jeetu Patel, EVP und Chief Product Officer bei Cisco, betont, liegt der Schlüssel zur Erschließung innovativer KI-Anwendungsfälle in der Gewährleistung von Sicherheit von Anfang an. Die gemeinsame Architektur von NVIDIA und Cisco bietet Unternehmen die Grundlage für die Skalierung von KI und gleichzeitig den Schutz ihrer wertvollsten Daten.
Der DPU-Vorteil für KI-Sicherheit
Der Wechsel von CPUs zu DPUs für die Sicherheit markiert einen bedeutenden Wandel im Schutz von KI-Fabriken. Mit Frameworks wie NVIDIA DOCA können Unternehmen Sicherheitsaufgaben mit DPUs verwalten. Dadurch können sie Bedrohungen in Echtzeit erkennen, ohne Agenten zu benötigen, was es Angreifern erschwert, ihre Sicherheitsmaßnahmen zu durchschauen. Diese Methode verbessert die Sicherheit bei gleichzeitig hoher Leistung und Effizienz. Diese Aspekte sind für heutige groß angelegte KI-Systeme von entscheidender Bedeutung.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed