Home FöretagSmartare media, var som helst: Axle AI tar intelligens till gränsen

Smartare media, var som helst: Axle AI tar intelligens till gränsen

by Brian Beeler

Axle AI levererar realtidsvideoarbetsflöden med AI-taggning, drivna av HPE DL145 G11, Solidigm Gen5 SSD-diskar och NVIDIA L4 GPU.

Efterfrågan på snabbt, högkvalitativt videoinnehåll har aldrig varit större. I dagens medielandskap förväntas små nyhetsteam, oberoende innehållsskapare och evenemangsproduktionsteam spela in, redigera och publicera professionellt material i realtid, ofta utan stöd från ett postproduktionsteam eller centraliserad infrastruktur.

Det är därför AI-sökning på plats, levererad via edge-baserade produktionssystem, blir ett måste, i takt med att mängden filmmaterial exploderar och behovet av återanvändning ökar. Genom att göra det möjligt för team att arbeta direkt med filmmaterial vid inspelningstillfället eliminerar edge-arbetsflöden flaskhalsar och ger skapare möjlighet att lägga mindre tid på att leta efter och hantera filmmaterial, och mer tid på att producera bästa möjliga innehåll.

Axel AI, en AI-driven plattform för hantering och automatisering av mediaresurser, är specifikt utformad för detta decentraliserade, snabba arbetsflöde. I kombination med branschledande hårdvara, som HPE ProLiant DL145 Gen11-servern, en NVIDIA L4 GPU och Solidigm PCIe Gen5 SSD-diskar, blir resultatet en kraftfull, portabel produktionsmiljö. Den ger professionella AI-assisterade mediefunktioner till även de smalaste teamen.

Systemarkitektur översikt

HPE ProLiant DL145 Gen11 edge-servern är en stark kandidat för Axle AI-implementeringar i fält- och evenemangsmiljöer där utrymme, strömförsörjning och kylning är begränsade. Med sin 2U-design med kort djup på bara 16 cm är denna server specialbyggd för portabilitet och installation i trånga utrymmen som mobila rack och flightcases. Till skillnad från traditionell företagsutrustning stöder den ett utökat driftstemperaturområde på -5 °C till 55 °C, vilket gör den lämplig för mindre kontrollerade miljöer. Trots sin kompakta storlek erbjuder den funktioner i företagsklass som redundant strömförsörjning och alternativ för startdiskar, vilket gör den idealisk för team som behöver robust, edge-kompatibel infrastruktur utan kostnaden för fullstor hårdvara.

På CPU-sidan stöder DL145 AMD EPYC 8004 (Siena)-seriens processorer, med stöd för åtta till 64 kärnor. Vårt testsystem är utrustat med EPYC 8434P, som erbjuder 48 kärnor och 96 trådar. Med en 200W TDP uppnår den en stark balans mellan effektivitet och beräkningskraft, vilket gör den idealisk för intensiva arbetsbelastningar. Processorn stöder 96 PCIe 5.0-banor och erbjuder sex kanaler DDR5-minne, vilket möjliggör hastigheter upp till 4800 MT/s med utmärkt minnesbandbredd. Medan minimikraven för Axel AI Om det krävs minst 16 processorkärnor och 32 GB RAM, överträffar vår konfiguration dessa krav med 48 kärnor och 256 GB DDR5-minne.

Lagringsprestanda är avgörande i alla mediepipelines, och DL145 stöder upp till sex EDSFF E3.S NVMe-enheter för att möta dessa krav. I vår konfiguration använde vi sex Solidigm D7-PS1010 E3.S SSD-enheter, var och en med en kapacitet på 7.68 TB. Dessa PCIe 5.0 x4-enheter levererar upp till 14,500 10,000 MB/s läshastighet och 46 50 MB/s skrivhastighet, vilket tillsammans ger nästan 15.36 TB höghastighetslagring. Dessa SSD-enheter är designade för AI- och mediearbetsflöden, erbjuder imponerande energieffektivitet och kan leverera upp till 92 % högre dataflöde i specifika pipelinefaser jämfört med konventionella NVMe-enheter. För team som behöver ytterligare kapacitet kan denna installation skalas upp till XNUMX TB per enhet, vilket ger totalt XNUMX TB snabb och kompakt lagring i ett kompakt format.

DL145 stöder upp till tre GPU:er med en enda plats, och i vår konfiguration använde vi en enda NVIDIA L4, en energieffektiv accelerator byggd på Ada Lovelace-arkitekturen. L4 är designad för videobehandling, AI-inferens, visuell databehandling och virtualiseringsarbetsbelastningar och levererar robust prestanda med en förbrukning på bara 72 watt. Den har 24 GB GDDR6 VRAM och ansluts via ett PCIe 4.0 x16-gränssnitt för både ström och data. Axel AI rekommenderar minst 16 GB VRAM, och L4 överträffar detta med ytterligare 8 GB, vilket säkerställer utrymme för högupplösta medieuppgifter och AI-drivna operationer.

Nvidia L4 GPU med en enda plats

För applikationslagret driftsatte vi Axle AI MAM och Axle AI Tags med hjälp av Proxmox Virtual Environment (8.3.5). Systemet är konfigurerat med två dedikerade virtuella maskiner: en som kör Axle AI MAM och den andra som kör Axle AI Tags. Denna struktur ger en tydlig separation mellan mediehantering och AI-driven metadatabehandling, samtidigt som den möjliggör sömlös kommunikation mellan komponenter.

Sammanfattning av Proxmox-miljö och hårdvara

Axle AI Tags körs parallellt med MAM och erbjuder lokala AI-funktioner, inklusive semantisk vektorsökning, objekt- och logotypigenkänning samt träningsbar ansiktsigenkänning. Den distribueras i en Docker-container och utnyttjar NVIDIA L4 GPU via PCIe-passthrough för effektiv inferens i realtid. Det webbläsarbaserade tränings- och administrationsgränssnittet möjliggör flexibel anpassning, och dess modulära design stöder Intel/NVIDIA- eller AMD/NVIDIA-hårdvarukonfigurationer. Även om Axle AI Tags är helt integrerat med MAM i vår installation, erbjuder den även REST API-kompatibilitet för användning med andra plattformar.

Hårdvarukonfiguration av Axle AI Tags virtuell maskin

Solidigm PS1010-enheterna är monterade i den virtuella maskinen Axle AI MAM, vilket säkerställer höghastighetsåtkomst till filmmaterial med låg latens. Genom att virtualisera hela stacken och tilldela dedikerade beräkningsresurser till varje komponent, ger denna installation högre drifttid, bättre resurshantering och stöd för flera användare långt utöver vad en enda arbetsstation skulle kunna erbjuda. Detta gör den idealisk för en samarbetsinriktad miljö med hög volymproduktion.

Tillsammans bildar dessa komponenter en tätt integrerad hårdvarulösning som möjliggör snabba, lokala, AI-drivna mediearbetsflöden. Det är en effektiv och fältklar plattform för distansteam som kräver pålitlig prestanda där utrymme och strömförsörjning är begränsad, men där AI-bearbetning fortfarande är avgörande.

HPE ProLiant DL145 Gen11 Prestanda

Innan vi går in på benchmarking beskriver tabellen nedan systemkonfigurationen för HPE ProLiant DL145 Gen11. Medan testning med Axle AI utfördes på en virtualiserad installation som körde Proxmox, övergick systemet till Ubuntu Server 22.04.5 för att mäta lagringsprestanda i våra GDSIO- och FIO-tester.

HPE ProLiant DL145 Gen 11 Hårdvaruöversikt
CPU Enkel AMD EPYC 8434P
RAM 256 GB ECC DDR5
lagring 6x Solidigm D7-PS1010 E3s SSD-diskar 7.68 TB
Boot Storage NS204-port 2x besatt (480 GB Samsung PM9A3 M.2)
GPU Enskild NVIDIA L4
Operativ system Ubuntu Server 22.04.5

Peak syntetisk prestanda

FIO-testet är ett flexibelt och kraftfullt benchmarkingverktyg som används för att mäta prestandan hos lagringsenheter, inklusive SSD- och hårddiskar. Det utvärderar mätvärden som bandbredd, IOPS (Input/Output Operations Per Second) och latens under olika arbetsbelastningar, såsom sekventiella och slumpmässiga läs-/skrivoperationer. Detta test är utformat för att fånga upp topprestanda och belasta lagringssystemet över flera arbetsbelastningar, vilket gör det särskilt användbart för att jämföra olika enheter eller konfigurationer. I det här fallet utfördes ett full-surface-test, där hela hårddiskarnas kapacitet användes för att ge en heltäckande bild av deras hållbara prestandaegenskaper.

I det sekventiella lästestet med 128K-block levererade systemet en bandbredd på 56.4 GB/s och upprätthöll 430,000 1.78 IOPS med en genomsnittlig latens på 45.4 millisekunder. Sekventiell skrivprestanda vid samma blockstorlek nådde 346,000 GB/s, vilket producerade 2.22 4 IOPS och en genomsnittlig latens på 46.6 millisekunder. För slumpmässiga läsoperationer med 11.4K-block uppnådde systemet 0.269 GB/s med 4 miljoner IOPS och en låg genomsnittlig latens på 29.1 millisekunder, vilket belyser den höga genomströmningspotentialen hos NVMe-lagringsarrayen under intensiva åtkomstmönster. Slumpmässiga skrivoperationer vid 7.1K mätte 0.432 GB/s och nådde XNUMX miljoner IOPS med en genomsnittlig latens på XNUMX millisekunder, vilket bekräftar en solid, upprätthållen skrivkapacitet även under fragmenterad åtkomst.

Sammanfattning av HPE DL145 Gen 11 FIO-riktmärke Bandbredd – GB/s IOPS Genomsnittlig latens
Sekventiell läsning (128K) 56.4 GB / s 430k 1.78 ms
Sekventiell skrivning (128K) 45.4 GB / s 346k 2.22 ms
Slumpmässig läsning (4KB) 46.6 GB / s 11.4M 0.269 ms
Slumpmässig skrivning (4K) 29.1 GB / s 7.1M 0.432 ms

GPU direkt lagring

Ett av testerna vi genomförde på denna testbänk var Magnum IO GPU Direct Storage (GDS)-testet. GDS är en funktion utvecklad av NVIDIA som gör att GPU:er kan kringgå CPU:n när de kommer åt data lagrade på NVMe-enheter eller andra höghastighetslagringsenheter. Istället för att dirigera data genom processorn och systemminnet, möjliggör GDS direkt kommunikation mellan GPU:n och lagringsenheten, vilket avsevärt minskar latensen och förbättrar datagenomströmningen.

Hur GPU Direct Storage fungerar

Traditionellt, när en GPU bearbetar data lagrad på en NVMe-enhet, måste data först färdas genom CPU:n och systemminnet innan de når GPU:n. Denna process introducerar flaskhalsar, eftersom CPU:n blir en mellanhand, lägger till latens och förbrukar värdefulla systemresurser. GPU Direct Storage eliminerar denna ineffektivitet genom att göra det möjligt för GPU:n att komma åt data direkt från lagringsenheten via PCIe-bussen. Denna direkta väg minskar de omkostnader som är förknippade med datarörelser, vilket möjliggör snabbare och mer effektiva dataöverföringar.

Axle AI Edge-videoarbetsflöden med Solidigm Flash

AI-arbetsbelastningar, särskilt de som involverar djupinlärning, är mycket dataintensiva. Att träna stora neurala nätverk kräver bearbetning av terabyte med data, och varje fördröjning i dataöverföringen kan leda till underutnyttjade GPU:er och längre träningstider. GPU Direct Storage hanterar denna utmaning genom att säkerställa att data levereras till GPU:n så snabbt som möjligt, vilket minimerar vilotiden och maximerar beräkningseffektiviteten.

Dessutom är GDS särskilt fördelaktigt för arbetsbelastningar som involverar streaming av stora datamängder, såsom videobearbetning, naturlig språkbehandling eller realtidsinferens. Genom att minska beroendet av CPU:n påskyndar GDS datarörelsen och frigör CPU-resurser för andra uppgifter, vilket ytterligare förbättrar den övergripande systemets prestanda.

GDSIO Läs sekventiell

I GDSIO-testet för sekventiell läsning av Solidigm PS1010 7.68 TB-disken skalades prestandan avsevärt med både blockstorlek och I/O-djup. Vid den minsta blockstorleken på 16 0.2 kretsar började dataflödet på bara 1 GiB/s vid ett ködjup på 1.3 och steg gradvis till 128 GiB/s vid ett djup på 128, vilket visar begränsad skalbarhet vid den granulariteten. Upp till 1.1 6.5 kretsar förbättrades prestandan mer dramatiskt, med början vid 1 GiB/s och upp till 2.4 GiB/s vid det högsta djupet. De bästa resultaten erhölls med en blockstorlek på 8.5 MB, där dataflödet initialt nådde 128 GiB/s och toppade vid XNUMX GiB/s vid ett ködjup på XNUMX, vilket indikerar att diskens optimala prestandaprofil uppnås med stora sekventiella läsningar och djupare köer.

GDSIO Skriv sekventiell

Sekventiell skrivprestanda på Solidigm PS1010 uppvisar god skalbarhet vid större blockstorlekar, men visar viss regression vid högre ködjup i medelstora arbetsbelastningar. Vid den minsta blockstorleken på 16K började skrivhastigheterna på 0.5 GiB/s och nådde en blygsam topp på 0.9 GiB/s från ködjup 8 till 64, innan de sjönk något till 0.8 GiB/s vid djup 128. Med 128K-block började prestandan på 2.2 GiB/s, förbättrades till en topp på 4.3 GiB/s vid djup 32, och sjönk sedan till bara 1.9 GiB/s vid den djupaste kön, vilket indikerar potentiell skrivmättnad eller strypning. Den bästa ihållande prestandan uppnåddes med blockstorlekar på 1M, där dataflödet skalades tydligt från 4.1 GiB/s vid djup 1 till 5.6 GiB/s vid djup 32 och 64, och förblev stabilt till 128.

GDSIO-sammanfattning

Denna tabell ger en tydlig uppdelning av GDSIO-prestandamått för latens och IOPS insamlade på Solidigm D7-PS1010 SSD, mätt vid blockstorlekar på 16K, 128K och 1M med ett IO-djup på 128. Vid ett ködjup på 128 skalas latens och IOPS förutsägbart med blockstorleken. Lästiden för 16K-block var i genomsnitt 1.549ms med 82.3K IOPS, medan skrivlatensen var 2.429ms med 52.6K IOPS. Med 128K-block ökade läslatensen till 2.414ms (52.9K IOPS) och skrivlatensen till 8.050ms (15.9K IOPS). Vid 1M nådde läslatensen 14.643ms med 8.7K IOPS, och skrivlatensen steg till 23.030ms med 5.6K IOPS.

GDSIO-diagram (16K,128K,1M blockstorleksmedelvärden) HPE DL145 Gen 11 (6 x Solidigm D7-PS1010 E3s SSD 7.68 TB)
(16K blockstorlek 128 IO-djup) Genomsnittlig avläsning 1.3 GiB/s (1.549 ms) IOPS: 82.3K
(16K blockstorlek 128 IO-djup) Genomsnittlig skrivning 0.8 GiB/s (2.429 ms) IOPS: 52.6 K
(128K blockstorlek 128 IO-djup) Genomsnittlig avläsning 6.5 GiB/s (2.414 ms) IOPS: 52.9K
(128K blockstorlek 128 IO-djup) Genomsnittlig skrivning 1.9 GiB/s (8.050 ms) IOPS: 15.9K
(1M blockstorlek 128 IO-djup) Genomsnittlig avläsning 8.5 GiB/s (14.643 ms) IOPS: 8.7K
(1M blockstorlek 128 IO-djup) Genomsnittlig skrivning 5.4 GiB/s (23.030 ms) IOPS: 5.6K

Medieproduktion i utkanten

Vad är Axle AI?

Axle AI är en lokal AI-driven plattform för hantering av mediatillgångar (MAM) som förenklar videoarbetsflöden för små och medelstora medieteam. Den automatiserar viktiga uppgifter, som inmatning, taggning och mediesökning, utan kostnaden eller komplexiteten hos traditionella MAM-system. Axle AI är utformad för snabbhet och användarvänlighet och gör det möjligt för team att hantera och leverera innehåll mer effektivt, oavsett om de är på kontoret eller arbetar på distans.

Plattformen stöder hela produktionsprocessen. Den matar automatiskt in filmmaterial, skapar proxyservrar, tillämpar AI-driven metadata med hjälp av funktioner som objektigenkänning, ansiktsigenkänning och semantisk sökning, och integrerar med branschstandardiserade redigeringsverktyg, inklusive Adobe Premiere Pro och DaVinci Resolve. Detta gör det möjligt för team att snabbt hitta, redigera och publicera innehåll utan flaskhalsar eller förseningar.

Användningsfall i verkliga världen

Axle AI används av en mängd olika medieteam, inklusive programföretag, dokumentärfilmare, företagsvideoavdelningar, marknadsföringsbyråer och producenter av liveevenemang. Dessa team arbetar ofta på flera platser och kräver pålitlig åtkomst till sina mediebibliotek utan behov av tung infrastruktur.

Med Axle AI kan användare samarbeta på distans via ett webbläsarbaserat gränssnitt som ger omedelbar åtkomst till proxymedia. Redaktörer kan börja klippa filmmaterial direkt i sina föredragna icke-linjära redigeringssystem (NLE), medan producenter och intressenter granskar, taggar eller godkänner klipp i realtid (inga stora filöverföringar eller specialiserade tekniska färdigheter krävs).

Oavsett om ni är ett team på fem eller femtio personer, möjliggör Axle AI snabbare och effektivare arbetsflöden. Dess enkla gränssnitt, snabba driftsättning och kompatibilitet med befintliga lagringssystem gör det till en smart lösning för distribuerad medieproduktion i hög volym.

Den starka efterfrågan på omedelbara sociala medier har dramatiskt ökat takten i medieproduktionen. Det är en mentalitet där man "är inte först, är sist", särskilt när det gäller liveevenemang och innehållsskapandet kring dem. Medieföretag behövde ett effektivt sätt att organisera och snabbt granska stora mängder filmmaterial. Verktyg som Axle AI, med sin förmåga att skala ner till små operationer, gör detta arbetsflöde praktiskt ute i fält. I kombination med rätt arbetsflöde, som kameror som kan spela in proxyservrar och råfilmer samtidigt, ökar möjligheterna till effektivitet.

Axle AI Edge-videoarbetsflöden

Att spara både hög- och lågupplösta proxymedia vid inspelning och bearbeta mindre proxyfiler direkt i Axle AI Tags kan göra allt material sökbart nästan direkt. Redaktörer kan börja arbeta direkt med Axle AI:s integration med de flesta större NLE:er som Adobe Premiere Pro, DaVinci Resolve och Avid Media Composer. Det avlastar också produktionsteamet rejält, vilket gör att de kan fokusera på andra uppgifter eller undvika utbrändhet.

Traditionellt sett har loggning varit en av de mest mödosamma och oftast överglömda aspekterna av ett arbetsflöde för mediainspelning. Axle AI loggar media automatiskt med AI-genererade scenbeskrivningar istället för bara traditionella metadatafält, vilket gör det möjligt för en redaktör att läsa vad ett klipp innehåller innan de tar sig tid att granska det. Det tillhandahåller också semantiska sökverktyg, vilket gör det möjligt för redaktörer och producenter att snabbt hitta relevant material med hjälp av koncept och teman, snarare än att förlita sig på specifika taggar.

Inferens för Axle AI Edge-videoarbetsflöden

Skalbarhet är också viktigt, eftersom inte alla jobb kräver snabb medieproduktion på plats. Axle AI kan konfigureras på ett kraftfullare, stationärt system med tillgång till ett medieföretags eftersläpning av filmmaterial över en nätverksdelning. Detta gör det möjligt för redaktörer och producenter att hitta relevant media snabbare, eller till och med upptäcka media som de kanske inte har övervägt tidigare som har "förlorats" i arkiven. Innehållsskapare och programföretag kan dra avsevärt nytta av denna typ av eftersläpningsindex, vilket skapar mer värde från media som annars skulle ligga inaktiva på en server. Även om det absolut inte är idiotsäkert, kan det ge medieföretag ett försprång på några av de mest tidskrävande aspekterna av medieskapandeprocessen.

HPE ProLiant DL145 Gen11 fungerar som hårdvarugrunden för denna AI-distribution vid edge-miljön och levererar en imponerande balans mellan beräkningstäthet, lagringskapacitet och GPU-acceleration i ett kompakt format. Systemet drivs av en 48-kärnig AMD EPYC 8434P-processor från den energieffektiva 8004-serien och är optimerat för flertrådade arbetsbelastningar samtidigt som det bibehåller en låg strömförbrukning. Konfigurationen inkluderar 256 GB RAM och en enda NVIDIA L4 GPU, en mycket effektiv accelerator som är väl lämpad för AI-inferens vid edge-miljön. Lagringen är försedd med sex Solidigm D7-PS1010 E3.S SSD-diskar, var och en med en kapacitet på 7.68 TB, vilket ger gott om högpresterande flashlagring för medieresurser och metadataintensiva arbetsbelastningar. Med stöd för upp till tre GPU:er med enkel bredd och totalt sex E3.S-diskar är DL145 Gen11 väl positionerad för att skala upp med krävande video- och AI-användningsfall. Denna uppställning betonar vikten av att noggrant montera moderna hårdvarukomponenter, inklusive CPU, GPU och SSD-diskar, för att möjliggöra exceptionell prestanda för edge-fokuserade AI-arbetsflöden, som de som drivs av Axle AI.

Slutsats

Axle AI förändrar hur videoinnehåll produceras, särskilt för team som arbetar i realtid med begränsade resurser. Genom att kombinera intelligent hantering av mediaresurser med kraftfulla inferensverktyg möjliggör Axle AI en nivå av automatisering och responsivitet som traditionella MAM-system inte kan matcha. I kombination med HPE ProLiant DL145 Gen11 edge-servern, NVIDIA L4 GPU och Solidigm Gen5 SSD:er, ger riggen vi byggt en kompakt, högpresterande miljö optimerad för moderna mediaarbetsflöden. Oavsett om den används ute i fält eller som en del av en hybridredigeringspipeline, ger denna konfiguration ett skalbart och effektivt sätt att mata in, tagga, söka efter och leverera videoinnehåll snabbare än någonsin tidigare, utan att kompromissa med kvalitet eller kontroll. För team som har i uppgift att ligga steget före i ett snabbt innehållslandskap erbjuder kombinationen av edge-infrastruktur och AI-assisterade arbetsflöden en betydande konkurrensfördel.

Engagera dig med StorageReview

Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde