Axle AI bietet Edge-Video-Workflows in Echtzeit mit KI-Tagging, unterstützt von HPE DL145 G11, Solidigm Gen5 SSDs und NVIDIA L4 GPU.
Die Nachfrage nach schnellen und hochwertigen Videoinhalten war noch nie so groß. In der heutigen Medienlandschaft wird von kleinen Nachrichtenteams, unabhängigen Content-Erstellern und Event-Produktionsteams erwartet, dass sie professionelles Filmmaterial in Echtzeit aufnehmen, bearbeiten und veröffentlichen – oft ohne die Unterstützung eines Postproduktionsteams oder einer zentralen Infrastruktur.
Deshalb wird die KI-Suche vor Ort, bereitgestellt über Edge-basierte Produktionssysteme, unverzichtbar, da die Menge an Filmmaterial explosionsartig zunimmt und der Bedarf an Wiederverwendung steigt. Edge-Workflows ermöglichen es Teams, direkt am Aufnahmeort mit dem Filmmaterial zu arbeiten. So werden Engpässe vermieden und die Produzenten können weniger Zeit mit der Suche und Verwaltung von Filmmaterial verbringen und sich mehr auf die Produktion bestmöglicher Inhalte konzentrieren.
Achsen-KI, eine KI-gestützte Plattform für Media Asset Management und Automatisierung, wurde speziell für diesen dezentralen, dynamischen Workflow entwickelt. In Kombination mit branchenführender Hardware wie dem HPE ProLiant DL145 Gen11 Server, einer NVIDIA L4 GPU und Solidigm PCIe Gen5 SSDs entsteht eine leistungsstarke, portable Produktionsumgebung. Sie bietet selbst den kleinsten Teams professionelle KI-gestützte Medienfunktionen.
Überblick über die Systemarchitektur
Der HPE ProLiant DL145 Gen11 Edge-Server eignet sich hervorragend für Axle AI-Implementierungen in Außen- und Eventumgebungen mit begrenztem Platz, Strom und Kühlung. Mit seinem 2HE-Design mit geringer Tiefe und einer Tiefe von nur 16 cm ist dieser Server speziell für den mobilen Einsatz und die Installation in engen Räumen wie mobilen Racks und Flightcases konzipiert. Im Gegensatz zu herkömmlichen Enterprise-Geräten unterstützt er einen erweiterten Betriebstemperaturbereich von -5 °C bis 55 °C und eignet sich daher auch für weniger kontrollierte Umgebungen. Trotz seiner kompakten Größe bietet er Enterprise-Funktionen wie redundante Stromversorgung und Boot-Laufwerksoptionen. Damit ist er ideal für Teams, die eine robuste, Edge-fähige Infrastruktur ohne den Aufwand vollwertiger Hardware benötigen.
CPU-seitig unterstützt der DL145 Prozessoren der AMD EPYC 8004 (Siena)-Serie mit acht bis 64 Kernen. Unser Testsystem ist mit dem EPYC 8434P ausgestattet, der 48 Kerne und 96 Threads bietet. Mit einer TDP von 200 W bietet er ein ausgewogenes Verhältnis zwischen Effizienz und Rechenleistung und ist somit ideal für intensive Workloads. Der Prozessor unterstützt 96 PCIe 5.0-Lanes und bietet sechs DDR5-Speicherkanäle, die Geschwindigkeiten von bis zu 4800 MT/s mit hervorragender Speicherbandbreite ermöglichen. Die Mindestanforderungen für Achsen-KI erfordern mindestens 16 CPU-Kerne und 32 GB RAM, unsere Konfiguration übertrifft diese Anforderungen mit 48 Kernen und 256 GB DDR5-Speicher bequem.
Die Speicherleistung ist in jeder Medienpipeline entscheidend. Der DL145 unterstützt bis zu sechs EDSFF E3.S NVMe-Laufwerke, um diesen Anforderungen gerecht zu werden. In unserer Konfiguration verwendeten wir sechs Solidigm D7-PS1010 E3.S SSDs mit jeweils 7.68 TB Kapazität. Diese PCIe 5.0 x4-Laufwerke liefern Lesegeschwindigkeiten von bis zu 14,500 MB/s und Schreibgeschwindigkeiten von 10,000 MB/s und ergeben zusammen fast 46 TB Hochgeschwindigkeitsspeicher. Diese für KI- und Medien-Workflows entwickelten SSDs bieten eine beeindruckende Energieeffizienz und können in bestimmten Pipeline-Phasen einen bis zu 50 % höheren Durchsatz als herkömmliche NVMe-Laufwerke erzielen. Für Teams, die zusätzliche Kapazität benötigen, lässt sich dieses Setup auf bis zu 15.36 TB pro Laufwerk skalieren und bietet so insgesamt 92 TB schnellen, dichten Speicher in einem kompakten Formfaktor.
Der DL145 unterstützt bis zu drei Single-Slot-GPUs. In unserer Konfiguration haben wir einen einzelnen NVIDIA L4 eingesetzt, einen energieeffizienten Beschleuniger auf Basis der Ada Lovelace-Architektur. Der L4 wurde für Videoverarbeitung, KI-Inferenz, Visual Computing und Virtualisierungsaufgaben entwickelt und bietet robuste Leistung bei einem Verbrauch von nur 72 Watt. Er verfügt über 24 GB GDDR6 VRAM und wird über eine PCIe 4.0 x16-Schnittstelle für Strom und Daten angebunden. Achsen-KI empfiehlt mindestens 16 GB VRAM, und der L4 übertrifft dies mit zusätzlichen 8 GB bequem und gewährleistet so Spielraum für hochauflösende Medienaufgaben und KI-gesteuerte Vorgänge.

Nvidia L4 Single-Slot-GPU
Für die Anwendungsebene haben wir Axle AI MAM und Axle AI Tags mithilfe der Proxmox Virtual Environment (8.3.5) bereitgestellt. Das System ist mit zwei dedizierten virtuellen Maschinen konfiguriert: eine mit Axle AI MAM und die andere mit Axle AI Tags. Diese Struktur ermöglicht eine klare Trennung zwischen Medienverwaltung und KI-gestützter Metadatenverarbeitung und ermöglicht gleichzeitig eine nahtlose Kommunikation zwischen den Komponenten.

Zusammenfassung der Proxmox-Umgebung und -Hardware
Axle AI Tags läuft parallel zu MAM und bietet On-Premise-KI-Funktionen, darunter semantische Vektorsuche, Objekt- und Logoerkennung sowie trainierbare Gesichtserkennung. Es wird in einem Docker-Container bereitgestellt und nutzt die NVIDIA L4 GPU über PCIe-Passthrough für effiziente Echtzeit-Inferenz. Die browserbasierte Trainings- und Administrationsoberfläche ermöglicht flexibles Tuning, und das modulare Design unterstützt Intel/NVIDIA- oder AMD/NVIDIA-Hardwarekonfigurationen. Axle AI Tags ist in unserem Setup vollständig in MAM integriert und bietet zudem REST-API-Kompatibilität für die Nutzung mit anderen Plattformen.

Hardwarekonfiguration der virtuellen Maschine Axle AI Tags
Die Solidigm PS1010-Laufwerke sind in die virtuelle Maschine Axle AI MAM integriert und gewährleisten einen schnellen und latenzarmen Zugriff auf das Filmmaterial. Durch die Virtualisierung des gesamten Stacks und die Zuweisung dedizierter Rechenressourcen zu jeder Komponente bietet dieses Setup höhere Verfügbarkeit, besseres Ressourcenmanagement und Mehrbenutzerunterstützung, die weit über das hinausgeht, was eine einzelne Workstation bieten könnte. Damit eignet es sich ideal für eine kollaborative Produktionsumgebung mit hohem Volumen.
Zusammen bilden diese Komponenten eine eng integrierte Hardwarelösung, die schnelle, lokale, KI-gestützte Medien-Workflows ermöglicht. Es handelt sich um eine effiziente, einsatzbereite Plattform für Remote-Teams, die zuverlässige Leistung benötigen, wenn Platz und Leistung begrenzt sind, KI-Verarbeitung jedoch unverzichtbar bleibt.
HPE ProLiant DL145 Gen11 Leistung
Bevor wir uns mit dem Benchmarking befassen, zeigt die folgende Tabelle die Systemkonfiguration des HPE ProLiant DL145 Gen11. Während die Tests mit Axle AI auf einer virtualisierten Installation mit Proxmox durchgeführt wurden, wurde das System auf Ubuntu Server 22.04.5 umgestellt, um die Speicherleistung in unseren GDSIO- und FIO-Tests zu messen.
HPE ProLiant DL145 Gen 11 | Hardwareübersicht |
---|---|
CPU | Einzelner AMD EPYC 8434P |
RAM | 256 GB ECC DDR5 |
Lagerung | 6x Solidigm D7-PS1010 E3s SSDs 7.68 TB |
Boot-Speicher | NS204-Port 2x belegt (480GB Samsung PM9A3 M.2) |
GPU | Einzelner NVIDIA L4 |
Betriebssystem | Ubuntu Server 22.04.5 |
Synthetische Spitzenleistung
Der FIO-Test ist ein flexibles und leistungsstarkes Benchmarking-Tool zur Messung der Leistung von Speichergeräten, einschließlich SSDs und HDDs. Er bewertet Kennzahlen wie Bandbreite, IOPS (Input/Output Operations Per Second) und Latenz unter verschiedenen Workloads, wie beispielsweise sequentiellen und zufälligen Lese-/Schreibvorgängen. Dieser Test dient dazu, Spitzenleistungen zu erfassen und das Speichersystem über mehrere Workloads hinweg zu belasten. Daher eignet er sich besonders für den Vergleich verschiedener Geräte oder Konfigurationen. In diesem Fall wurde ein Vollflächentest durchgeführt, bei dem die gesamte Kapazität der Laufwerke genutzt wurde, um einen umfassenden Überblick über ihre anhaltenden Leistungsmerkmale zu erhalten.
Im sequentiellen Lesetest mit 128-KB-Blöcken lieferte das System eine Bandbreite von 56.4 GB/s und erreichte 430,000 IOPS bei einer durchschnittlichen Latenz von 1.78 Millisekunden. Die sequentielle Schreibleistung bei gleicher Blockgröße erreichte 45.4 GB/s, was 346,000 IOPS und eine durchschnittliche Latenz von 2.22 Millisekunden ergab. Bei zufälligen Lesevorgängen mit 4-KB-Blöcken erreichte das System 46.6 GB/s mit 11.4 Millionen IOPS und einer niedrigen durchschnittlichen Latenz von 0.269 Millisekunden. Dies unterstreicht das hohe Durchsatzpotenzial des NVMe-Speicherarrays bei intensiven Zugriffsmustern. Zufällige Schreibvorgänge mit 4K erreichten 29.1 GB/s und 7.1 Millionen IOPS bei einer durchschnittlichen Latenz von 0.432 Millisekunden. Dies bestätigt die solide, anhaltende Schreibleistung auch bei fragmentiertem Zugriff.
HPE DL145 Gen 11 FIO Benchmark-Zusammenfassung | Bandbreite – GB/s | IOPS | Durchschnittliche Latenz |
---|---|---|---|
Sequentielles Lesen (128 KB) | 56.4 GB / s | 430K | 1.78 ms |
Sequentielles Schreiben (128 KB) | 45.4 GB / s | 346K | 2.22 ms |
Zufälliges Lesen (4 KB) | 46.6 GB / s | 11.4M | 0.269 ms |
Zufälliges Schreiben (4K) | 29.1 GB / s | 7.1M | 0.432 ms |
GPU-Direktspeicher
Einer der Tests, die wir auf diesem Prüfstand durchgeführt haben, war der Magnum IO GPU Direct Storage (GDS)-Test. GDS ist eine von NVIDIA entwickelte Funktion, die es GPUs ermöglicht, die CPU beim Zugriff auf Daten auf NVMe-Laufwerken oder anderen Hochgeschwindigkeitsspeichern zu umgehen. Anstatt Daten über die CPU und den Systemspeicher zu leiten, ermöglicht GDS die direkte Kommunikation zwischen GPU und Speichergerät, was die Latenz deutlich reduziert und den Datendurchsatz verbessert.
So funktioniert GPU Direct Storage
Wenn eine GPU Daten verarbeitet, die auf einem NVMe-Laufwerk gespeichert sind, müssen die Daten normalerweise zuerst durch die CPU und den Systemspeicher laufen, bevor sie die GPU erreichen. Dieser Prozess führt zu Engpässen, da die CPU zum Mittelsmann wird, was zu Latenz führt und wertvolle Systemressourcen verbraucht. GPU Direct Storage beseitigt diese Ineffizienz, indem es der GPU ermöglicht, über den PCIe-Bus direkt vom Speichergerät auf Daten zuzugreifen. Dieser direkte Pfad reduziert den mit der Datenbewegung verbundenen Overhead und ermöglicht schnellere und effizientere Datenübertragungen.
KI-Workloads, insbesondere solche mit Deep Learning, sind äußerst datenintensiv. Das Training großer neuronaler Netzwerke erfordert die Verarbeitung von Terabyte an Daten, und jede Verzögerung bei der Datenübertragung kann zu einer Unterauslastung der GPUs und längeren Trainingszeiten führen. GPU Direct Storage bewältigt diese Herausforderung, indem es sicherstellt, dass die Daten so schnell wie möglich an die GPU übermittelt werden, wodurch Leerlaufzeiten minimiert und die Rechenleistung maximiert werden.
Darüber hinaus ist GDS besonders vorteilhaft für Workloads, die das Streamen großer Datensätze beinhalten, wie etwa Videoverarbeitung, Verarbeitung natürlicher Sprache oder Echtzeit-Inferenz. Durch die Reduzierung der Abhängigkeit von der CPU beschleunigt GDS die Datenbewegung und gibt CPU-Ressourcen für andere Aufgaben frei, was die Gesamtsystemleistung weiter verbessert.
GDSIO-Lesen (sequenziell)
Im GDSIO-Test für sequentielles Lesen des Solidigm PS1010 7.68 TB-Laufwerks stieg die Leistung sowohl mit der Blockgröße als auch mit der I/O-Tiefe deutlich an. Bei der kleinsten Blockgröße von 16 K lag der Durchsatz zunächst bei nur 0.2 GiB/s und einer Warteschlangentiefe von 1 und stieg schrittweise auf 1.3 GiB/s bei einer Tiefe von 128 an, was auf eine eingeschränkte Skalierbarkeit bei dieser Granularität hindeutet. Bei 128 K-Blöcken verbesserte sich die Leistung deutlicher, beginnend bei 1.1 GiB/s und bis zu 6.5 GiB/s bei der höchsten Tiefe. Die besten Ergebnisse wurden mit einer Blockgröße von 1 M erzielt, wo der Durchsatz zunächst 2.4 GiB/s erreichte und bei einer Warteschlangentiefe von 8.5 einen Spitzenwert von 128 GiB/s erreichte. Dies deutet darauf hin, dass das optimale Leistungsprofil des Laufwerks bei großen sequentiellen Lesevorgängen und tieferen Warteschlangen erreicht wird.
GDSIO-Schreiben (sequenziell)
Die sequentielle Schreibleistung des Solidigm PS1010 weist bei größeren Blockgrößen eine solide Skalierbarkeit auf, lässt jedoch bei höheren Warteschlangentiefen und mittleren Workloads etwas nach. Bei der kleinsten Blockgröße von 16 KB begannen die Schreibgeschwindigkeiten bei 0.5 GiB/s und erreichten von Warteschlangentiefen 0.9 bis 8 einen moderaten Höchstwert von 64 GiB/s, bevor sie bei Warteschlangentiefe 0.8 leicht auf 128 GiB/s abfielen. Bei 128 KB-Blöcken begann die Leistung bei 2.2 GiB/s, verbesserte sich auf einen Höchstwert von 4.3 GiB/s bei Warteschlangentiefe 32 und sank dann bei der tiefsten Warteschlange auf nur noch 1.9 GiB/s, was auf eine mögliche Schreibsättigung oder Drosselung hindeutet. Die beste anhaltende Leistung wurde mit Blockgrößen von 1 M erreicht, wobei der Durchsatz sauber von 4.1 GiB/s in Tiefe 1 auf 5.6 GiB/s in Tiefe 32 und 64 skaliert wurde und bis 128 stabil blieb.
GDSIO-Zusammenfassung
Diese Tabelle bietet eine übersichtliche Aufschlüsselung der GDSIO-Leistungsmesswerte für Latenz und IOPS der Solidigm D7-PS1010 SSD, gemessen bei Blockgrößen von 16K, 128K und 1M mit einer IO-Tiefe von 128. Bei einer Warteschlangentiefe von 128 skalieren Latenz und IOPS vorhersehbar mit der Blockgröße. Der durchschnittliche Lesezugriff auf 16K-Blöcke betrug 1.549 ms bei 82.3K IOPS, die Schreiblatenz 2.429 ms bei 52.6K IOPS. Bei 128K-Blöcken erhöhte sich die Leselatenz auf 2.414 ms (52.9K IOPS) und die Schreiblatenz auf 8.050 ms (15.9K IOPS). Bei 1 M erreichte die Leselatenz 14.643 ms mit 8.7 K IOPS und die Schreiblatenz stieg auf 23.030 ms mit 5.6 K IOPS.
GDSIO-Diagramm (Durchschnittswerte für 16K, 128K, 1M Blockgrößen) | HPE DL145 Gen 11 (6 x Solidigm D7-PS1010 E3s SSD 7.68 TB) |
---|---|
(16K Blockgröße 128 IO-Tiefe) Durchschnittliche Lese | 1.3 GiB/s (1.549 ms) IOPS: 82.3 K |
(16K Blockgröße 128 IO-Tiefe) Durchschnittliche Schreib | 0.8 GiB/s (2.429 ms) IOPS: 52.6 K |
(128K Blockgröße 128 IO-Tiefe) Durchschnittliche Lese | 6.5 GiB/s (2.414 ms) IOPS: 52.9 K |
(128K Blockgröße 128 IO-Tiefe) Durchschnittliche Schreib | 1.9 GiB/s (8.050 ms) IOPS: 15.9 K |
(1M Blockgröße 128 IO-Tiefe) Durchschnittliche Lesevorgänge | 8.5 GiB/s (14.643 ms) IOPS: 8.7 K |
(1M Blockgröße 128 IO-Tiefe) Durchschnittlicher Schreibvorgang | 5.4 GiB/s (23.030 ms) IOPS: 5.6 K |
Medienproduktion am Rande
Was ist Axle AI?
Axle AI ist eine KI-gestützte On-Premise-Media-Asset-Management-Plattform (MAM), die Video-Workflows für kleine und mittelgroße Medienteams vereinfacht. Sie automatisiert wichtige Aufgaben wie Aufnahme, Tagging und Mediensuche – ohne die Kosten oder Komplexität herkömmlicher MAM-Systeme. Axle AI ist auf Geschwindigkeit und Benutzerfreundlichkeit ausgelegt und ermöglicht Teams eine effizientere Verwaltung und Bereitstellung von Inhalten, egal ob im Büro oder remote.
Die Plattform unterstützt die gesamte Produktionspipeline. Sie nimmt automatisch Filmmaterial auf, erstellt Proxys, wendet KI-gesteuerte Metadaten mithilfe von Funktionen wie Objekterkennung, Gesichtserkennung und semantischer Suche an und lässt sich in branchenübliche Bearbeitungstools wie Adobe Premiere Pro und DaVinci Resolve integrieren. So können Teams Inhalte schnell und ohne Engpässe oder Verzögerungen finden, bearbeiten und veröffentlichen.
Anwendungsfälle aus der Praxis
Axle AI wird von zahlreichen Medienteams eingesetzt, darunter Rundfunkanstalten, Dokumentarfilmer, Unternehmensvideoabteilungen, Marketingagenturen und Live-Event-Produzenten. Diese Teams arbeiten oft an mehreren Standorten und benötigen zuverlässigen Zugriff auf ihre Medienbibliotheken ohne umfangreiche Infrastruktur.
Mit Axle AI können Benutzer über eine browserbasierte Oberfläche, die sofortigen Zugriff auf Proxy-Medien bietet, remote zusammenarbeiten. Redakteure können sofort mit dem Schneiden des Filmmaterials in ihren bevorzugten nichtlinearen Schnittsystemen (NLEs) beginnen, während Produzenten und Stakeholder Clips in Echtzeit überprüfen, taggen und freigeben (keine großen Dateiübertragungen oder spezielle technische Kenntnisse erforderlich).
Ob fünf oder fünfzig Mitarbeiter – Axle AI ermöglicht schnellere und effizientere Arbeitsabläufe. Die einfache Benutzeroberfläche, die schnelle Bereitstellung und die Kompatibilität mit vorhandenen Speichersystemen machen es zu einer intelligenten Lösung für die großvolumige, verteilte Medienproduktion.
Die starke Nachfrage nach sofortiger Nutzung sozialer Medien hat das Tempo der Medienproduktion dramatisch erhöht. Es herrscht eine ausgeprägte „Wer nicht Erster ist, ist Letzter“-Mentalität, insbesondere bei Live-Events und der damit verbundenen Content-Erstellung. Medienunternehmen benötigten eine effiziente Möglichkeit, große Mengen an Filmmaterial zu organisieren und schnell zu überprüfen. Tools wie Axle AI, die sich auf kleine Vorgänge skalieren lassen, ermöglichen diesen Workflow praxisnah. In Kombination mit dem richtigen Workflow, beispielsweise Kameras, die Proxys und Rohmaterial gleichzeitig aufzeichnen können, steigen die Effizienzchancen.
Durch das Speichern von hochauflösenden und niedrigauflösenden Proxy-Medien bei der Aufnahme und die sofortige Verarbeitung kleinerer Proxy-Dateien in Axle AI Tags wird das gesamte Filmmaterial nahezu sofort durchsuchbar. Dank der Integration von Axle AI in die meisten gängigen NLEs wie Adobe Premiere Pro, DaVinci Resolve und Avid Media Composer können Editoren sofort mit der Arbeit beginnen. Dies entlastet das Produktionsteam erheblich und ermöglicht es ihm, sich auf andere Aufgaben zu konzentrieren oder Burnout zu vermeiden.
Traditionell gehörte die Protokollierung zu den aufwendigsten und am häufigsten vernachlässigten Aspekten im Medienerfassungs-Workflow. Axle AI protokolliert Medien automatisch mit KI-generierten Szenenbeschreibungen anstelle herkömmlicher Metadatenfelder. So kann ein Editor den Inhalt eines Clips lesen, ohne ihn erst durchgehen zu müssen. Darüber hinaus bietet es semantische Suchfunktionen, mit denen Editoren und Produzenten relevantes Material schnell anhand von Konzepten und Themen finden können, anstatt sich auf bestimmte Tags verlassen zu müssen.
Skalierbarkeit ist ebenfalls entscheidend, da nicht alle Aufträge eine schnelle Medienproduktion vor Ort erfordern. Axle AI kann auf einem leistungsstärkeren, stationären System eingerichtet werden, das über eine Netzwerkfreigabe auf den Filmbestand eines Medienunternehmens zugreift. So können Redakteure und Produzenten relevante Medien schneller finden oder sogar Medien entdecken, die sie vorher vielleicht nicht berücksichtigt haben und die in den Archiven „verloren“ sind. Content-Ersteller und Sender können von einem solchen Rückstandsindex erheblich profitieren und so mehr Wert aus Medien schöpfen, die sonst ungenutzt auf einem Server liegen würden. Obwohl dies sicherlich nicht narrensicher ist, kann es Medienunternehmen einen Vorsprung bei einigen der zeitaufwändigsten Aspekte des Medienerstellungsprozesses verschaffen.
Der HPE ProLiant DL145 Gen11 dient als Hardware-Grundlage für diese Edge-KI-Implementierung und bietet eine beeindruckende Kombination aus Rechendichte, Speicherdurchsatz und GPU-Beschleunigung auf kompaktem Raum. Angetrieben von einem 48-Core AMD EPYC 8434P Prozessor der energieeffizienten 8004-Serie ist dieses System für Multithread-Workloads optimiert und zeichnet sich gleichzeitig durch einen niedrigen Stromverbrauch aus. Die Konfiguration umfasst 256 GB RAM und eine einzelne NVIDIA L4 GPU, einen hocheffizienten Beschleuniger, der sich hervorragend für KI-Inferenz am Edge eignet. Der Speicher besteht aus sechs Solidigm D7-PS1010 E3.S SSDs mit jeweils 7.68 TB Kapazität und bietet ausreichend leistungsstarken Flash-Speicher für Medieninhalte und metadatenintensive Workloads. Mit Unterstützung für bis zu drei Single-Wide-GPUs und insgesamt sechs E3.S-Laufwerken ist der DL145 Gen11 bestens für anspruchsvolle Video- und KI-Anwendungsfälle gerüstet. Dieses Setup unterstreicht die Bedeutung einer sorgfältigen Zusammenstellung moderner Hardwarekomponenten, einschließlich CPU, GPU und SSDs, um eine außergewöhnliche Leistung für Edge-fokussierte KI-Workflows zu ermöglichen, wie sie beispielsweise von Axle AI unterstützt werden.
Fazit
Axle AI verändert die Art und Weise der Videoproduktion, insbesondere für Teams, die in Echtzeit mit begrenzten Ressourcen arbeiten. Durch die Kombination von intelligentem Media Asset Management mit leistungsstarken Inferenz-Tools ermöglicht Axle AI ein Maß an Automatisierung und Reaktionsfähigkeit, das herkömmliche MAM-Systeme nicht erreichen können. In Kombination mit dem HPE ProLiant DL145 Gen11 Edge-Server, NVIDIA L4 GPU und Solidigm Gen5 SSDs bietet das von uns entwickelte System eine kompakte, leistungsstarke Umgebung, die für moderne Medien-Workflows optimiert ist. Ob im Außeneinsatz oder als Teil einer hybriden Bearbeitungspipeline – diese Konfiguration bietet eine skalierbare und effiziente Möglichkeit, Videoinhalte schneller als je zuvor aufzunehmen, zu taggen, zu durchsuchen und bereitzustellen, ohne Kompromisse bei Qualität oder Kontrolle einzugehen. Für Teams, die in einer schnelllebigen Content-Landschaft die Nase vorn behalten müssen, bietet die Kombination aus Edge-Infrastruktur und KI-gestützten Workflows einen erheblichen Wettbewerbsvorteil.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed