De Dell H975i uit de PERC13-serie RAID-controllers is de grootste stap voorwaarts die het bedrijf in meer dan tien jaar heeft gemaakt op het gebied van hardware-RAID. Hoewel Dell regelmatig updates voor zijn PERC-lijn heeft uitgebracht, waren deze grotendeels incrementeel, gericht op controller-tuning en verbeterde bandbreedte naarmate de PCIe-generaties vorderden. De onderliggende architectuur bleef echter verbonden met de SATA- en SAS-traditie die enterprise RAID al jaren definieert. De PERC H975i doorbreekt die cyclus definitief. Gebouwd op Broadcoms SAS51xx-chipsetlijn, markeert deze controller een definitieve overgang naar een flash-first en NVMe-native ontwerp. Door uitsluitend NVMe-schijven te ondersteunen en de ondersteuning voor traditionele HDD- en SATA-technologieën te elimineren, integreert de H975i een toekomstgerichte benadering van opslaginfrastructuur, geoptimaliseerd voor de hoge prestaties en lage latentie-eisen van moderne data-intensieve en AI-first workloads.
Key Takeaways
- Flash-first NVMe RAID: De PERC13 H975i maakt volledig gebruik van SAS/SATA en is gebouwd op Broadcom SAS51xx voor een NVMe-native, AI-ready architectuur.
- Grote generatiesprong: PCIe Gen5 x16 met maximaal 16 NVMe-schijven per controller (32 met twee) leverde tijdens tests 52.5 GB/s en 12.5 M IOPS per controller, met winst ten opzichte van PERC12, waaronder +88% leesbandbreedte, +318% schrijfbandbreedte, +31% 4K lees-IOPS en +466% 4K schrijf-IOPS.
- AI-server fit: Dankzij het aan de voorzijde geïntegreerde ontwerp zijn er aan de achterzijde PCIe-slots vrij voor GPU's, worden MCIO-runs verkort en is er een speciale opslagpijp per accelerator beschikbaar voor een stabielere, meer deterministische doorvoer zonder CPU-overhead.
- Veerkracht onder stress: Dankzij de met supercondensatoren beschermde cache en snellere heropbouw wordt de tijd teruggebracht tot wel 10 min/TiB, terwijl de hoge prestaties tijdens het heropbouwen behouden blijven (tot 53.7 GB/s lezen, 68 GB/s schrijven, 17.3 M/5.33 M 4K IOPS).
- End-to-end-beveiliging: Hardware Root of Trust, SPDM-apparaatidentiteit en volledige encryptie die schijven, actieve gegevens en controllercache bestrijkt.
De PERC H975i levert ongeëvenaarde prestaties en architecturale innovaties. Dankzij een PCIe Gen 5 x16 hostinterface en ondersteuning voor maximaal 16 NVMe-schijven (32 NVMe-schijven per systeem met twee controllers), behaalde de H975i in onze tests een opmerkelijke maximale doorvoer van 52.5 GB/s en 12.5 miljoen IOPS per controller. Dit is een bijna verdubbeling van de prestaties in elke belangrijke categorie ten opzichte van de PERC2, die een maximum bereikte van 12 miljoen IOPS en een doorvoer van 6.9 GB/s. Naast pure prestaties introduceert de PERC27 een cachebeschermingsmechanisme op basis van supercondensatoren (ter vervanging van traditionele systemen met batterijvoeding), waardoor de gegevensintegriteit wordt gewaarborgd zonder de operationele betrouwbaarheid in gevaar te brengen. Voortbouwend op de beveiligingsfuncties van zijn voorganger, breidt de H13i nu de volledige encryptiemogelijkheden uit, waarbij gegevens in de cache worden versleuteld en uitgebreide bescherming wordt geboden, zowel tijdens verzending als in rust.
De PERC H975i is een speciaal gebouwde opslagaccelerator die is ontworpen om te voldoen aan de ongekende rekenkracht van AI-workloads. Hij biedt zowel hoge dichtheid als hoge prestaties, evenals opslag met lage latentie zonder CPU-overhead. In de praktijk geeft de combinatie van een PCIe Gen5 RAID-kaart die een x16-interface kan verzadigen met een Gen5 GPU elke accelerator een eigen opslagpijplijn. Dit vereenvoudigt de PCIe/NUMA-topologie, voorkomt ruiseffecten en houdt herbouw- of achtergrondtaken geïsoleerd in het I/O-domein van die GPU.
Schaal dit op naar dual RAID-kaarten voor twee GPU's en behoud lineaire prestaties, terwijl u conflicten op gedeelde lanes of caches vermijdt. Het resultaat is een stabielere invoerbandbreedte voor data-intensieve training en inferentie (grote batches, snelle shuffles, snelle checkpoint-lezingen) met een nauwere latentieverdeling onder belasting en tijdens heropbouw. Deze architectuur zorgt niet alleen voor hogere piekwaarden, maar maakt de doorvoer ook deterministischer, en dat is precies wat multi-GPU AI-servers nodig hebben om de benutting hoog te houden.
Dell PERC12 H965i en PERC13 H975i specificaties
| Kenmerk | PERC12 H965i Voorzijde | PERC13 H975i Voorzijde |
|---|---|---|
| RAID-niveaus | 0, 1, 5, 6, 10, 50, 60 | 0, 1, 5, 6, 10, 50, 60 |
| Niet-RAID (JBOD) | Ja | Ja |
| Hostbustype | PCIe Gen4 x16 | PCIe Gen5 x16 |
| Zijbandbeheer | I2C, PCIe VDM | I2C, PCIe VDM |
| Behuizingen per poort | Niet van toepassing | Niet van toepassing |
| Processor/chipset | Broadcom RAID-on-Chip, SAS4116W | Broadcom RAID-on-Chip, SAS5132W |
| Energiepakket / Power-backup | Accu | Supercondensator |
| Beveiliging van lokaal sleutelbeheer | Ja | Ja |
| Veilige Enterprise Key Manager | Ja | Ja |
| Controllerwachtrijdiepte | 8,192 | 8,192 |
| Niet-vluchtige cache | Ja | Ja |
| Cachegeheugen | 8 GB DDR4 3200 MT/s | Geïntegreerde RAID-cache |
| Cachefuncties | Terugschrijven, vooruitlezen, doorschrijven, altijd terugschrijven, geen vooruitlezen | Terugschrijven, doorschrijven, altijd terugschrijven, geen vooruitlezen |
| Maximaal complexe virtuele schijven | 64 | 16 |
| Maximaal aantal eenvoudige virtuele schijven | 240 | 64 |
| Maximale schijfgroepen | 64 | 32 |
| Maximaal aantal VD's per schijfgroep | 16 | 8 |
| Max. aantal hot-spare-apparaten | 64 | 8 |
| Ondersteunde hot-swap-apparaten | Ja | Ja |
| Automatisch configureren (primair en eenmaal uitvoeren) | Ja | Ja |
| Hardware XOR-engine | Ja | Ja |
| Online capaciteitsuitbreiding | Ja | Ja |
| Toegewijde en wereldwijde hot spare | Ja | Ja |
| Ondersteunde schijftypen | NVMe Gen3 en Gen4 | NVMe Gen3, Gen4 en Gen5 |
| VD-strip-elementgrootte | 64KB | 64KB |
| NVMe PCIe-ondersteuning | Gen4 | Gen5 |
| Configuratie Max NVMe-schijven | 8 schijven per controller | 16 schijven per controller |
| Ondersteunde sectorgroottes | 512B, 512e, 4Kn | 512B, 512e, 4Kn |
| Ondersteuning voor opslagopstarten | Alleen UEFI | Alleen UEFI |
De PERC13 H975i Front-controller in Dell PowerEdge-servers is ontworpen voor naadloze integratie in de systeemarchitectuur. In tegenstelling tot traditionele uitbreidingskaarten die PCIe-slots aan de achterzijde innemen, maakt de H975i rechtstreeks verbinding met de backplane van de voorste schijf en communiceert deze met de MCIO-connectoren aan de voorzijde op het moederbord via speciale PCIe 5.0-interfaces. Dit geïntegreerde ontwerp behoudt de PCIe-slots aan de achterzijde voor krachtige GPU's en extra PCIe-uitbreiding, terwijl de kabellengte aanzienlijk wordt verkort. Dit draagt bij aan het behoud van de signaalintegriteit, waardoor het systeem betrouwbaarder en eenvoudiger te onderhouden is. Het resultaat is een overzichtelijke interne lay-out en een verbeterde luchtstroom voor compacte, rekenintensieve implementaties.
De H975i implementeert een uitgebreide beveiligingsarchitectuur die varieert van hardwarematige attestatie op siliciumniveau tot volledige data-encryptie van gegevens op SED-schijven. De Hardware Root of Trust vormt de basis voor een onveranderlijke keten van cryptografische verificatie van het interne opstart-ROM tot en met elk firmwarecomponent, waardoor alleen geverifieerde, door Dell gecertificeerde firmware op de controller kan worden uitgevoerd. Deze hardwarematige beveiliging wordt uitgebreid met de implementatie van het Security Protocol and Data Model (SPDM), waarbij elke controller een uniek Device Identity-certificaat bevat waarmee iDRAC realtime authenticatie kan uitvoeren. De controller breidt cryptografische bescherming uit buiten traditionele data-at-rest-scenario's en omvat ook cachegeheugen. De encryptiesleutels worden bewaard in beveiligde geheugengebieden die ontoegankelijk zijn voor ongeautoriseerde firmware. Hierdoor blijven gevoelige gegevens beschermd, ongeacht of ze zich op schijven bevinden of actief in de cache worden verwerkt.
Stroombeveiliging in de H975i is een andere belangrijke ontwikkeling ten opzichte van traditionele systemen met batterijvoeding dankzij de integratie van een supercondensator. De supercondensator levert direct stroom tijdens onverwachte stroomuitval en zorgt voor een gecodeerde en volledige cache-flush naar niet-vluchtige opslag, waar gegevens voor onbepaalde tijd beschermd blijven. Bovendien voltooit de supercondensator van de H4i, in tegenstelling tot systemen op batterijen die 8-975 uur nodig hebben voor leercycli, zijn transparante leercyclus binnen 5-10 minuten zonder prestatieverlies tijdens de kalibratie. Dit ontwerp elimineert de onderhoudsoverhead en degradatieproblemen die inherent zijn aan batterijoplossingen, terwijl het tegelijkertijd superieure betrouwbaarheid biedt voor bedrijfskritische gegevensbeveiliging.
Geïntegreerde monitoring en beheer
De PERC13 RAID-controller van Dell kan, net als veel RAID-oplossingen van Dell, op veel manieren worden beheerd en bewaakt, bijvoorbeeld tijdens het opstarten van het platform via Systeeminstellingen in het BIOS, via de iDRAC-webinterface, het PERC12-hulpprogramma en zelfs de Dell OpenManage-gebruikersinterface en -opdrachtregelinterface.
iDRAC-controllerbeheer
Wanneer u de iDRAC-beheerinterface bekijkt, biedt het tabblad Controllers een overzicht van de opslaghardware van de server. Naast de BOSS-kaart ziet u de twee PERC H975i-controllers, compleet met informatie over firmwareversies, cachegeheugen en batterijstatus. Met dit overzicht kunt u snel de gereedheid en configuratie van de controllers controleren zonder dat u het BIOS of CLI-tools hoeft te gebruiken.
Het tabblad Virtuele schijven in iDRAC toont de aangemaakte opslagarrays, inclusief hun RAID-niveau, grootte en cachebeleid. In dit systeem worden twee RAID-10-groepen weergegeven, allemaal gebouwd op SSD's. Vanuit deze weergave kunnen beheerders controleren of volumes online zijn, nieuwe virtuele schijven maken of het menu Acties gebruiken om bestaande configuraties aan te passen of te verwijderen.
RAID-controllerconfiguratiehulpprogramma
De afbeelding hierboven toont een voorbeeld van het openen van de PERC H975i Front Configuration Utility System Setup op het PowerEdge R7715-platform. Vanuit deze interface kunt u alle belangrijke RAID-controllerinstellingen beheren, waaronder configuratiebeheer, controllerbeheer, apparaatbeheer en meer. Dit hulpprogramma biedt een gestroomlijnde manier om virtuele schijven in te stellen en hardwarecomponenten direct tijdens het opstarten van het platform te bewaken.
Nadat we het RAID-niveau hebben geselecteerd, gaan we verder met het selecteren van fysieke schijven voor de array. In dit voorbeeld worden alle beschikbare NVMe SSD's weergegeven en gemarkeerd als RAID-compatibel. We selecteren meerdere 3.2 TiB Dell DC NVMe-schijven uit de niet-geconfigureerde capaciteitspool. Filters zoals mediatype, interface en logische sectorgrootte helpen de selectie te verfijnen. Zodra de gewenste schijven zijn aangevinkt, kunnen we doorgaan door op "OK" te klikken om de schijfselectie te voltooien en door te gaan met het aanmaken van de virtuele schijf.
Voordat de virtuele schijf wordt aangemaakt, geeft het systeem een waarschuwing weer waarin wordt bevestigd dat alle gegevens op de geselecteerde fysieke schijven permanent worden verwijderd. Om door te gaan, vinken we het vakje 'Bevestigen' aan en selecteren we 'Ja' om de bewerking te autoriseren. Deze beveiliging helpt onbedoeld gegevensverlies tijdens het maken van de RAID te voorkomen.
Zodra de virtuele schijf is aangemaakt, verschijnt deze in het menu 'Virtuele schijfbeheer'. In dit voorbeeld wordt onze nieuwe RAID 5 virtuele schijf weergegeven met een capaciteit van 43.656 TiB en de status 'Gereed'. Met slechts een paar eenvoudige stappen is de opslag geconfigureerd en klaar voor gebruik.
Hoewel de PERC BIOS Configuration Utility en de iDRAC-interface intuïtieve opties bieden voor lokaal en extern beheer, biedt Dell ook een krachtige opdrachtregeltool genaamd PERC CLI (perccli2). Dit hulpprogramma ondersteunt Windows, Linux en VMware, waardoor het ideaal is voor scripting, automatisering of het beheer van PERC-controllers in headless-omgevingen. Dell biedt ook gedetailleerde documentatie over installatie en het gebruik van opdrachten voor PERC CLI op hun supportsite.
Dell PERC13 prestatietesten
Voordat we aan de prestatietests begonnen, hebben we onze omgeving voorbereid met behulp van het Dell PowerEdge R7715-platform, geconfigureerd met twee PERC H975i frontcontrollers. Deze werden gecombineerd met tweeëndertig Dell NVMe-schijven van 3.2 TB, elk geschikt voor sequentiële leessnelheden tot 12,000 MB/s en sequentiële schrijfsnelheden tot 5,500 MB/s met blokgroottes van 128 KiB. Deze krachtige basis stelt ons in staat om de grenzen van de doorvoer van de PERC13-controller te verleggen en het RAID-gedrag op schaal te evalueren.
- Platform: Dell PowerEdge R7715
- CPU: AMD EPYC 9655P 96-core processor
- Frame: 768 GB (12 x 64 GB) DDR5-5200 ECC
- Raid-controller: 2 x PERC13 H975i
- Opslag: 32 x 3.2 TB Dell CD8P NVMe-schijven
- PCIe-versnellers: 2 x NVIDIA H100 GPU
NVIDIA Magnum IO GPU Direct Storage: AI ontmoet opslag
Moderne AI-pipelines zijn vaak I/O-gebonden, niet rekengebonden. Databatches, embeddings en checkpoints moeten snel genoeg van storage naar GPU-geheugen worden overgezet om accelerators bezig te houden. NVIDIA's Magnum IO GDS (via cuFile) omzeilt het traditionele "SSD → CPU DRAM → GPU"-pad en maakt data-DMA rechtstreeks van NVMe naar GPU-geheugen mogelijk. Dit elimineert CPU bounce-buffer overhead, verlaagt de latentie en maakt de doorvoer onder belasting voorspelbaarder. Dit alles vertaalt zich in een hoger GPU-gebruik, kortere epoch-tijden en snellere opslag-/laadcycli van checkpoints.
Onze GDSIO-test is gericht op het meten van het datapad van de opslag naar de GPU zelf, waarbij blokgroottes en threadaantallen worden geanalyseerd om te laten zien hoe snel een PERC13-ondersteunde NVMe-set naar H100-geheugen kan streamen. Met elke H975i op een PCIe 5.0 x16-verbinding (theoretisch ~64 GB/s per controller, unidirectioneel), stellen twee controllers een totaalplafond in van bijna ~112 GB/s; waar onze curven een plateau vormen, kunt u zien of u een link- of media-limiet hebt. Voor professionals: lees de grafieken als proxy's voor echte workloads: grote sequentiële leesbewerkingen worden gekoppeld aan datasetstreaming en checkpoint-herstel; grote sequentiële schrijfbewerkingen worden gekoppeld aan checkpoint-opslag; kleinere overdrachten met gelijktijdigheid weerspiegelen dataloader-shuffles en prefetching. Kortom, sterke GDSIO-schaling betekent minder GPU-storingen en consistentere prestaties tijdens zowel training als high-throughput-inferentie.
GDSIO-sequentiële leesdoorvoer
Beginnend met sequentieel lezen, begon de doorvoer bescheiden bij lagere blokgroottes en threadaantallen, beginnend rond de 0.3 GiB/s bij 8K blokken met één thread. De prestaties schaalden scherp tussen 16K en 512K blokken, vooral bij een verhoging van het threadaantal van 4 naar 16. De grootste winst werd behaald bij 1M, 5M en 10M blokken, waarbij de doorvoer dramatisch steeg en piekte op 103 GiB/s bij een blokgrootte van 10M met 256 threads. Deze progressie laat zien dat de PERC13-array profiteert van grotere blokgroottes en multithreaded parallellisme, met een optimale verzadiging rond de 64-128 threads, waarna de winst stabiliseert.
GDSIO-leessequentieel doorvoerverschil
Bij sequentiële leestesten over blokgrootten van 8K tot 10M presteerde de PERC13 (H975i) consistent beter dan de PERC12 (H965i), waarbij de procentuele winst aanzienlijk toenam bij grotere blokgrootten en hogere threadaantallen.
Bij kleinere blokgroottes (8K-16K) waren de verbeteringen bescheiden (meestal variërend van 0-20%), en in enkele geïsoleerde gevallen bleef de H975i licht achter vanwege testvariabiliteit bij lage wachtrijdieptes. Bij blokgroottes van 32K-64K werd het voordeel consistenter, waarbij de H975i een 30-50% hogere doorvoersnelheid leverde over de meeste threadaantallen.
De meest significante verschillen werden waargenomen bij grotere blokgroottes (128K tot en met 10M), waar de PERC13-controller het volledige sequentiële leespotentieel van het systeem ontgrendelde. Hier liet de H975i winsten van 50-120% zien ten opzichte van de H965i. Bij een blokgrootte van 1M met 8-16 threads was de doorvoer bijvoorbeeld ruim 55 GiB/s hoger, wat neerkomt op een toename van ongeveer 90%. Bij blokgroottes van 5M en 10M overtroffen de verbeteringen regelmatig de 100%, waarbij sommige configuraties bijna het dubbele van de prestaties lieten zien ten opzichte van de vorige generatie.
Over het geheel genomen behaalde de PERC13 (H975i) een overtuigende voorsprong in sequentiële leesworkloads, vooral door de schaalvergroting van de blokgrootte en het aantal threads. Hoewel kleinere blokgroottes een stapsgewijze verbetering lieten zien, leverde de nieuwere controller bij 256K en hoger consistent 50-100%+ hogere prestaties, wat de architecturale vooruitgang in Dells nieuwste RAID-platform duidelijk onderstreept.
GDSIO-sequentiële leeslatentie
Naarmate de sequentiële leessnelheid toenam, bleef de latentie beheersbaar bij kleinere blokgroottes en lagere threadaantallen. Zo bleef de latentie onder de 100 µs tot 64K blokken en 16 threads, wat aantoont dat leesbewerkingen in dat bereik efficiënt worden verwerkt. Zodra de blokgroottes en threadaantallen hoger werden, met name bij 5M en 10M met 64 of meer threads, steeg de latentie snel, met een piek van 211.8 ms bij een blokgrootte van 10M met 256 threads. Dit onderstreept hoe controller- of wachtrijknelpunten ontstaan bij extreme workloads, zelfs bij een hoge doorvoer.
De beste balans tussen prestaties en efficiëntie werd waargenomen bij een blokgrootte van 1M met 8-16 threads, waarbij de array een doorvoersnelheid van 87.5-93.7 GiB/s aanhield met een latentie tussen 179-334 µs. Deze zone vertegenwoordigt de ideale balans voor het maximaliseren van de bandbreedte en het beperken van vertragingen tot ruim onder een milliseconde.
GDSIO-schrijfsequentiële doorvoer
De schrijfprestaties vertoonden een sterke initiële schaalvergroting naarmate de blokgroottes toenamen, waarbij de doorvoer steeg van 1.2 GiB/s bij 8K en 1 thread naar 13.9 GiB/s bij 256K. De grootste groei vond plaats tussen 128K en 1M blokgroottes, waarbij de doorvoer meer dan 80 GiB/s bereikte bij 8 tot 16 threads. De piekprestaties werden bereikt bij de 5M en 10M blokgroottes, waarbij de doorvoer vanaf 100 threads 101 tot 8 GiB/s bedroeg.
De prestaties vlakten af over 8 tot 64 threads voor deze grotere blokken, wat aangeeft dat de controllers al vroeg in de schaalcurve saturatie bereikten. Bij hogere threadaantallen, met name 128 en 256 threads, varieerde de doorvoerstabiliteit. Deze bleef stabiel bij grote blokken van 5M en 10M met 101 GiB/s, maar nam af voor middelgrote blokken, zoals 256K, van 61.2 GiB/s bij 32 threads tot 45.3 GiB/s bij 256 threads.
GDSIO Schrijf Sequentiële Doorvoer Differentieel
Bij sequentiële schrijftesten leverde de PERC13 (H975i) aanzienlijke winst op ten opzichte van de PERC12 (H965i), vooral naarmate de blokgroottes en het aantal threads toenamen. Bij kleine blokgroottes (8K-32K) waren de verbeteringen bescheiden, doorgaans binnen 0-10%, met incidentele testruis die verwaarloosbare verschillen vertoonde.
Vanaf 64K werd het voordeel van de H975i duidelijker. Bij een blokgrootte van 64K bereikten de verbeteringen 40-70%, met een doorvoersnelheid die met meer dan 12-17 GiB/s steeg ten opzichte van de H965i. Bij 128K-256K werd de toename sterker, waarbij de H975i consistent een 50-70% hogere doorvoersnelheid leverde bij gemiddelde tot hoge threadaantallen.
Het meest dramatische prestatieverschil deed zich voor bij grotere blokgroottes (512K tot en met 10M). Bij 512K behaalde de H975i winsten van +31 tot +56 GiB/s, wat neerkomt op een verbetering van 60-80% ten opzichte van de H965i. Bij een blokgrootte van 1M werd de voorsprong verder vergroot, met doorvoersprongen van +40 tot +68 GiB/s, wat neerkomt op een winst van 70-90%. Tot slot verdubbelde de PERC 5 bij blokgroottes van 10M en 13M de doorvoer bijna ten opzichte van de PERC 12, met verschillen van +75 tot +79 GiB/s, wat zich vertaalde in een verbetering van 100% in sommige scenario's met veel threads.
Over het geheel genomen liet de PERC 13-controller een duidelijke generatiesprong zien in sequentiële schrijfprestaties. Hoewel de verschillen bij de kleinste blokgroottes klein zijn, levert de H64i bij workloads boven de 975K consistent een 50-100% hogere doorvoer, waarmee hij zijn superioriteit ten opzichte van de H965i bij schrijfintensieve sequentiële workloads definitief bevestigt.
GDSIO-schrijfsequentiële latentie
De latentie tijdens sequentiële schrijfbewerkingen bleef indrukwekkend laag bij kleinere blokgroottes en lagere threadaantallen, en bleef vaak onder de 50 µs bij blokken van 128K met maximaal 8 threads. Naarmate het aantal threads toenam, nam de latentie merkbaarder toe. Zo bereikte de latentie 392 µs bij 512K met 32 threads en overschreed deze 1 ms bij een blokgrootte van 1M met 64 threads.
Verzadigingseffecten werden duidelijker bij de grootste blokgroottes en de hoogste gelijktijdigheidsniveaus. De latentie steeg tot 12.4 ms op 5M met 128 threads en piekte op 50.3 ms op 10M met 256 threads.
Het meest efficiënte bedrijfspunt voor sequentiële schrijfopdrachten werd bereikt bij blokken van 1M of 5M met 8 tot 16 threads, waarbij de doorvoer 87.9 tot 101.2 GiB/s bereikte, terwijl de latentie binnen 178 µs – 1.7 ms bleef. Dit leverde sterke, aanhoudende prestaties op zonder dat er buitensporige vertragingen in de schrijfwachtrij ontstonden.
MLPerf Storage 2.0-prestaties
Om de prestaties in de praktijk in AI-trainingsomgevingen te evalueren, hebben we de MLPerf Storage 2.0-testsuite gebruikt. MLPerf Storage is speciaal ontworpen om I/O-patronen te testen in echte, gesimuleerde deep learning-workloads. Het biedt inzicht in hoe opslagsystemen omgaan met uitdagingen zoals checkpointing en modeltraining.
Controlepuntbenchmark
Bij het trainen van machine learning-modellen zijn controlepunten essentieel om de status van het model periodiek op te slaan. Dit helpt verlies van voortgang door onderbrekingen, zoals hardwarestoringen, te voorkomen, maakt vroegtijdig stoppen tijdens de training mogelijk en stelt onderzoekers in staat om vanuit verschillende controlepunten te vertakken voor experimenten en ablaties.
Uit de vergelijking van de opslagduur van het controlepunt bleek dat Dell PERC13 consistent beter presteerde dan PERC12 in alle modelconfiguraties. PERC13 behaalde opslagtijden variërend van 7.61 tot 10.17 seconden, terwijl PERC12 10.41 tot 20.67 seconden nodig had voor dezelfde bewerkingen. Het prestatieverschil was het grootst bij het 1T-parametermodel, waarbij PERC13 opslag voltooide in iets meer dan 10 seconden, vergeleken met de 12+ seconden van PERC20. Dit vertegenwoordigt een vermindering van ongeveer 50% in de opslagtijd voor de grootste modellen.
De resultaten van de Save-doorvoer laten de superieure bandbreedtebenutting van PERC13 zien, wat consistent hogere gegevensoverdrachtssnelheden oplevert. PERC13 behaalt een doorvoer tussen 11.46 en 14.81 GB/s, met piekprestaties op het 1T-model. PERC12 daarentegen haalt een maximumsnelheid van 9.49 GB/s en daalt tot 6.98 GB/s voor de grootste configuratie. De nieuwere controller handhaaft stabielere prestaties over verschillende modelgroottes, wat wijst op een betere optimalisatie voor het verwerken van grote sequentiële schrijfbewerkingen die typisch zijn voor controlepuntbewerkingen.
Vergelijkingen van de laadduur laten vergelijkbare voordelen zien voor PERC13, hoewel het prestatieverschil varieert per modelgrootte. Bij kleinere modellen (8B, 70B) laadde PERC13 checkpoints ongeveer 35-40% sneller dan PERC12. De meest dramatische verbetering zagen we echter opnieuw bij het 1T-model, waar PERC13 in 10.58 seconden laadde ten opzichte van de 12 seconden van PERC21.22 (een vermindering van bijna 50%). Deze snellere hersteltijd is cruciaal om downtime te minimaliseren bij het hervatten van de training vanaf checkpoints na onderbrekingen.
Ten slotte laat PERC13, bij het analyseren van de Load Throughput-statistieken, een duidelijk prestatievoordeel zien, met een consistente doorvoersnelheid van boven de 18 GB/s in alle configuraties en een piek van 23.73 GB/s op het 405B-model. PERC12 daarentegen liet lagere prestaties zien, variërend van 6.8 GB/s tot 10.68 GB/s.
VOOR-EN ACHTERNAAM Prestatiebenchmark
Hoewel er nieuwe testbenaderingen in deze review zijn opgenomen, hebben we om de verbeteringen te benadrukken een aantal gegevens uit ons laatste artikel over De PERC12-controller van Dell, toont het verschil in piekbandbreedte en piekdoorvoer.
Zeggen dat PERC13 verbeteringen brengt, is een understatement. Met één RAID5-volume op elke controller maten we een toename van 88% in leesbandbreedte, een toename van 318% in schrijfbandbreedte, een toename van 31% in 4K willekeurige leesprestaties en een verbluffende toename van 466% in 4K willekeurige schrijfprestaties. Dit is niet de absolute piekprestatie van de PERC 13-controller; hogere snelheden zijn mogelijk met meer virtuele schijven. Dit resultaat weerspiegelt echter de prestaties van één naamruimte bij maximale totale capaciteit.
| Werkdruk | Dubbele PERC 12 (2 x RAID5) | Dubbele PERC 13 (2 x RAID5) | Prestatieverhoging |
|---|---|---|---|
| 128K sequentiële lezingen | 56,107 (MB/s) | 105,227 (MB/s) | 88% |
| 128K sequentiële schrijfbewerkingen | 24,351 (MB/s) | 101,723 (MB/s) | 318% |
| 4KB willekeurige lezingen | 13,205,656 (IOP's) | 17,342,057 (IOP's) | 31% |
| 4KB willekeurige schrijfbewerkingen | 1,725,198 (IOP's) | 9,758,677 (IOP's) | 466% |
We hebben ons gericht op de prestaties van de Dell PERC H975i en PERC H965i controllers, waarbij we gebruik hebben gemaakt van RAID 5, dat een uitstekende combinatie biedt van capaciteit en pariteitsbeveiliging. We hebben meerdere virtuele schijf (VD) configuraties op de Dell PERC H975i onderzocht: 8 VD's in RAID 5 (8R5), 4 VD's in RAID 5 (4R5) en 2 VD's in RAID 5 (2R5). We hebben ook twee configuraties getest op de Dell PERC H965i: 4 VD's in RAID 5 (4R5) en 2 VD's in RAID 5 (2R5). De configuraties zijn gekozen op basis van het aantal SSD's dat elke controller kan beheren. De nieuwste PERC 13 controller kan maximaal 16 SSD's beheren, die eenvoudig kunnen worden verdeeld in maximaal 4 RAID 5 groepen van elk 4 SSD's. De oudere PERC12 kon slechts 8 SSD's beheren, waardoor hij beperkt was tot het testen van maximaal 2 RAID5 SSD groepen. Deze configuratie betekent dat we in het geval van een 8R5-systeem vier RAID 4-schijven met 5 schijven op elke PERC RAID-controller hebben.
Elke configuratie onderging een identiek benchmarkproces, beginnend met een preconditioneringsfase bestaande uit twee volledige schrijfbewerkingen naar het apparaat met behulp van sequentiële workloads. Na het bereiken van een stabiele toestand hebben we de prestaties gemeten voor verschillende toegangspatronen. Vóór elke nieuwe workloadtest hebben we een preconditioneringscyclus opnieuw uitgevoerd met de bijbehorende overdrachtsgrootte om consistente resultaten te garanderen.
128K sequentiële schrijfbandbreedte
Bij tests met sequentiële schrijfbewerkingen van 128K werd een dramatisch prestatieverschil tussen controllergeneraties waargenomen. De PERC H965i-arrays leverden een bescheiden doorvoer, waarbij de 2R5-configuratie 28.1 GB/s en de 4R5-configuratie 29.5 GB/s haalde, met minimale schaalbaarheid vanaf extra RAID-schijven. Daartegenover stond dat de PERC H975i-controller uitzonderlijke prestaties leverde in alle configuraties: de 2R5-array bereikte 99.3 GB/s (253%), de 4R5-configuratie 99.7 GB/s (238%) en de 8R5-configuratie piekte op 101.3 GB/s (243% ten opzichte van de 965R4-configuratie van de H5i). Over het algemeen clusterde de H975i zich rond de 100 GB/s, ongeacht het aantal schijven, wat erop wees dat de bandbreedtelimiet van de controller voor sequentiële schrijfbewerkingen van 128K werd bereikt.
128K sequentiële schrijflatentie
Bij tests met sequentiële schrijflatentie van 128K werd een duidelijk verschil tussen controllergeneraties waargenomen. De PERC H965i-arrays vertoonden hogere latenties, waarbij de 2R5-configuratie varieerde van 0.0238 ms tot 17.8 ms en de 4R5-configuratie opliep tot 38.9 ms, wat een minimaal voordeel opleverde met extra RAID-schijven. De PERC H975i-controller daarentegen behaalde een aanzienlijk lagere latentie in alle configuraties: de 2R5-array varieerde van 0.0173 ms tot 5.0 ms (72% lagere pieklatentie), de 4R5-configuratie varieerde van 0.0179 ms tot 10.5 ms (73% lager) en de 8R5-configuratie varieerde van 0.0188 ms tot 20.1 ms (48% lager ten opzichte van de H965i 4R5).
128K sequentiële leesbandbreedte
In sequentiële leestests van 128K op Dell-systemen lieten de PERC H965i-controllers consistente prestaties zien in beide configuraties. De 2R5-array behaalde een maximale bandbreedte van 54.8 GB/s, terwijl de 4R5-configuratie ook 54.8 GB/s haalde. De PERC H975i-controllers daarentegen presteerden aanzienlijk beter, waarbij alle drie de configuraties een piekbandbreedte van ongeveer 102.7–102.8 GB/s bereikten. De H975i 2R5-array leverde 102.8 GB/s (87% verbetering), de 4R5-configuratie behaalde 102.7 GB/s (87% verbetering) en de 8R5-configuratie behaalde 102.7 GB/s (87% verbetering). Opvallend is dat de H965i-controllers geen betekenisvolle prestatieschaling lieten zien tussen 2R5- en 4R5-configuraties, terwijl de H975i-controllers consistente hoge prestaties behielden in alle RAID 5-configuraties, waarbij het bandbreedteplafond leek te worden bereikt, ongeacht het aantal schijven in de array.
128K sequentiële leeslatentie
Bij sequentiële leeslatentietests van 128K leverde de PERC H965i latenties op van 0.2006 ms tot 16.1 ms op 2R5 en van 0.1644 ms tot 24.7 ms op 4R5, wat een toenemende variabiliteit liet zien naarmate de schijven schaalden. Ter vergelijking: de PERC H975i was veel efficiënter, met een 2R5-configuratie van 0.062 ms tot 4.9 ms (80% lagere pieklatentie), een 4R5-configuratie van 0.075 ms tot 9.8 ms (60% lager) en een 8R5-configuratie met een piek van 19.5 ms (21% lager ten opzichte van de H965i 4R5).
64k willekeurige schrijfbandbreedte
In 64K willekeurige schrijftesten liet de oudere PERC H965i-controller consistente maar beperkte prestaties zien, waarbij zowel de 2R5- als de 4R5-configuratie een vrijwel identieke doorvoer van 8.3 GB/s behaalden, ongeacht het aantal schijven. De PERC H975i-controller leverde daarentegen uitzonderlijke prestatieverbeteringen: de 2R5-configuratie bereikte 39.8 GB/s (379% verbetering), terwijl de 4R5 dezelfde piekbandbreedte van 39.8 GB/s behield (379% verbetering). De 8R5-array op de H975i presteerde iets beter met 40.3 GB/s (386% verbetering).
64k willekeurige schrijflatentie
Bij tests met willekeurige schrijflatentie van 64K had de H965i het moeilijk onder zwaardere belasting, met 2R5-snelheden variërend van 0.020 ms tot 30.0 ms en 4R5 tot wel 60.0 ms. De H975i-controller presteerde daarentegen aanzienlijk beter: 2R5-snelheden varieerden van 0.0115 ms tot 6.3 ms (79% lagere pieklatentie), 4R5-snelheden bereikten slechts 12.6 ms (79% lager) en 8R5-controllers piekten op 24.8 ms (59% lager dan de 965R4-snelheid van de H5i).
64k willekeurige leesbandbreedte
In een 64K random read-test behaalde de PERC H965i met zowel 2R5- als 4R5-arrays een vrijwel identieke doorvoer van 54.6 GB/s. De PERC H975i-controller was daarentegen wederom aanzienlijk beter, met alle drie de configuraties die ongeveer 102.7 GB/s bereikten, wat een prestatieverbetering van 88% ten opzichte van de H965i betekende. Opvallend was dat de H975i-configuraties een opmerkelijke consistentie vertoonden over verschillende RAID-arraygroottes, met een piekbandbreedte van slechts 102.7 GB/s tot 102.7 GB/s, ongeacht of er 2, 4 of 8 schijven in de RAID-5-array werden gebruikt. Dit suggereert dat we bij een 64K random read-workload de controller volledig kunnen verzadigen en niet beperkt zijn door de schijfcapaciteit op het nieuwere H975i-platform.
64k willekeurige leeslatentie
Voor willekeurige 64K-lezingen varieerde de 965R2-array van de H5i van 0.226 ms tot 4.6 ms, terwijl de 4R5-configuratie tot 9.6 ms reikte. De overstap naar de H975i verlaagde de latentie aanzienlijk, met 2R5 van 0.080 ms tot 2.4 ms (48% lagere pieklatentie), 4R5 van 0.080 ms tot 4.9 ms (49% lager) en 8R5 van 0.080 ms tot 9.7 ms (vergelijkbaar met de 965R4 van de H5i). Over het algemeen vertoonde de H975i een strakkere controle en lagere latentielimieten voor alle RAID-groepen.
16k sequentiële schrijf-IOPS
In sequentiële schrijftests van 16K leverde de PERC H965i-controller bescheiden prestaties, waarbij de 2R5-configuratie 1.73 miljoen IOPS behaalde en de 4R5-configuratie 1.87 miljoen IOPS. De PERC H975i daarentegen liet een dramatische verbetering zien, waarbij de 2R5-configuratie 6.44 miljoen IOPS bereikte (een verbetering van 272% ten opzichte van de H965i). De 975R4-array van de H5i piekte op 6.54 miljoen IOPS (een verbetering van 250%), terwijl de 8R5-configuratie 6.53 miljoen IOPS behaalde (een verbetering van 249% ten opzichte van de 965R4-configuratie van de H5i), wat opnieuw aantoont dat de controllers rond de 6.5 miljoen IOPS zitten bij een blokgrootte van 16K.
16k sequentiële schrijflatentie
Bij sequentiële schrijfbewerkingen van 16K produceerden de H965i-arrays 0.0080-3.5 ms op 2R5 en 0.0083-5.3 ms op 4R5. De H975i toonde een superieure efficiëntie, met 2R5 variërend van 0.0070 ms tot 0.80 ms (77% lager), 4R5 variërend tot 1.42 ms (73% lager) en 8R5 piekend op 6.2 ms (17% lager ten opzichte van H965i 4R5). 
16k sequentiële lees-IOPS
In sequentiële leestests van 16K leverden de PERC H965i-controllers consistente resultaten, waarbij de 2R5-configuratie 3.56 miljoen IOPS behaalde en de 4R5-configuratie eveneens 3.56 miljoen IOPS. Ter vergelijking: de PERC H975i-controllers zagen alle configuraties dicht bij elkaar rond de 6.64 miljoen IOPS liggen, wat een verbetering van 86% ten opzichte van de H965i betekent.
16k sequentiële leeslatentie
Bij sequentiële 16K-lezingen varieerde de 965R2-array van de H5i van 0.040 ms tot 1.15 ms, terwijl de 4R5-array zelfs tot 3.0 ms steeg. Op de H975i verbeterden de latenties: 2R5 kwam uit op 0.038-0.62 ms (46% lager), 4R5 piekte op 1.23 ms (59% lager) en 8R5 bereikte 2.47 ms (19% lager ten opzichte van de 965R4 van de H5i).
16k willekeurig schrijven IOPS
Met willekeurige I/O bij een blokgrootte van 16K zagen we het verzadigingspunt al heel vroeg in de tests bereikt worden. Beide PERC H965i-configuraties (2R5 en 4R5) leverden vrijwel identieke prestaties, met ongeveer 492,000 IOPS. De PERC H975i-controllers met de 2R5-array behaalden 2.57 miljoen IOPS (een verbetering van 422%). De H975i 4R5- en 8R5-configuraties presteerden iets hoger met ongeveer 2.60 miljoen IOPS (een verbetering van 428%).
16k willekeurige schrijflatentie
Bij 16K willekeurige schrijfbewerkingen had de H965i een hogere latentie, met een vertraging van 2R5 van 0.0082 tot 8.6 ms en een vertraging van 4R5 tot 16.6 ms. De H975i verbeterde aanzienlijk, met een vertraging van 2R5 van 0.0070 tot 1.59 ms (82% lager), een vertraging van 4R5 tot 3.17 ms (81% lager) en een maximale vertraging van 8R5 van 6.27 ms (62% lager ten opzichte van de 965R4 van de H5i).
16k willekeurig gelezen IOPS
Bij een willekeurige 16K-uitlezing leverden de PERC H965i-configuraties consistente prestaties, waarbij de 2R5-array 3.55 miljoen IOPS behaalde en de 4R5-array 3.55 miljoen IOPS. De PERC H975i 2R5-, 4R5- en 8R5-configuraties behaalden vrijwel identieke piekprestaties rond de 6.64 miljoen IOPS, wat een verbetering van 87% betekent ten opzichte van de H965i-generatie.
16k willekeurige leeslatentie
Bij 16K willekeurige reads leverden de H965i-arrays 0.0906–1.15 ms voor 2R5 en tot 2.74 ms voor 4R5. De H975i verlaagde de latentie opnieuw, met 2R5 op 0.072–0.62 ms (46% lager), 4R5 tot 1.23 ms (55% lager) en 8R5 met een piek van 2.47 ms (10% lager ten opzichte van H965i 4R5).
4K willekeurig schrijven IOPS
In 4K random schrijftests behaalden de PERC H975i-controllers met 2R5-configuratie een piek van 9.76 miljoen IOPS, terwijl de 4R5-array iets hogere prestaties leverde met 9.94 miljoen IOPS. De 8R5-configuratie liet de sterkste prestaties zien met 10.10 miljoen IOPS.
4K willekeurige schrijflatentie
Voor 4K-tests hebben we de H975i uitsluitend op piekprestaties beoordeeld. De latentie was uitstekend voor alle arrays: 2R5 varieerde van 0.0058 ms tot 0.47 ms, 4R5 piekte op 0.88 ms en 8R5 bereikte 1.63 ms. Deze resultaten tonen aan dat de H975i bij de kleinste blokgrootte uitzonderlijk lage latenties handhaafde, consistent onder de 2 ms.
4K willekeurig lezen IOPS
We hebben een van de meest interessante grafieken voor het laatst bewaard: in 4K random read tests bereikte de H975i met de 2R5-configuratie een indrukwekkende 17.3 miljoen IOPS. De H975i 4R5-array bereikte 20.1 miljoen IOPS, terwijl de 8R5-configuratie de hoogste doorvoer leverde met 25.2 miljoen IOPS.
4K willekeurige leeslatentie
Bij willekeurige 4K-lezingen begonnen de latenties bij 0.069 ms voor alle arrays, met een piek van 2 ms voor 5R0.29, 4 ms voor 5R0.53 en 8 ms voor 5R0.65. Het lage plafond in alle RAID-groepen onderstreept het vermogen van de H975i om kleine willekeurige leesbewerkingen met opmerkelijke efficiëntie af te handelen.
Geen prestatieverlies bij herbouw
Vergeleken met de PERC12 biedt de Dell PERC13-controller een aanzienlijk hogere doorvoersnelheid voor elke workload tijdens het herbouwen van arrays. Sequentiële leesbewerkingen verdubbelen meer dan tot 53.7 GB/s ten opzichte van 25 GB/s (een stijging van 114.7%), en sequentiële schrijfbewerkingen springen omhoog van 68 GB/s naar 14.6 GB/s (een stijging van 363.7%). De prestaties van small-blocks vergroten de kloof nog verder: willekeurige 4K-leesbewerkingen stijgen van 17.33 MB naar 4.68 MB IOPS (een stijging van 270.4%), terwijl willekeurige 4K-schrijfbewerkingen omhoog schieten van 5.33 MB naar 0.48 MB IOPS (een stijging van 1013.1%). Kortom, de PERC13 minimaliseert de impact van herbouw en behoudt de hostruimte, zelfs tijdens de zwaarste onderhoudsperiodes.
| Werkdruk | Dual PERC 12 (2 × RAID5) – Herbouwen | Dual PERC 13 (2 × RAID5) – Herbouwen | % Verbetering |
|---|---|---|---|
| Sequentiële leesbandbreedte | 25 (GB/s) | 53.7 (GB/s) | 114.7% |
| Sequentiële schrijfbandbreedte | 14.7 (GB/s) | 68 (GB/s) | 363.7% |
| 4KB willekeurige lezingen | 4,676,748 (IOPS) | 17,326,888 (IOP's) | 270.4% |
| 4KB willekeurige schrijfbewerkingen | 479,144 (IOP's) | 5,333,783 (IOP's) | 1013.1% |
Snel herbouwen zonder de werklast te vertragen
Dell claimt ook enorme verbeteringen in veerkracht en herbouwprestaties, en noemt een vermindering van de herbouwtijd van arrays van meer dan 80 minuten per terabyte met PERC12 tot slechts 10 minuten per terabyte met PERC13. Deze snelheid verkleint de risico's en getuigt van de volwassenheid van de hardwarematige XOR-engine, cacheversnelling en optimalisatie van het gegevenspad van de controller.
In RAID5-rebuildtests leverde PERC13 consistent kortere rebuildtijden dan PERC12 wanneer de controller prioriteit kon geven aan de rebuild, met de waarschuwing dat extreem hoge schrijfbelasting dit voordeel teniet kan doen. Met Priority Rebuild ingeschakeld, geeft de controller rebuild-taken als eerste de opdracht tot het gebruik van resources. Hierdoor kon de PERC13-controller de rebuildtijden onder sequentiële leesbelasting aanzienlijk verkorten. Bij de laagste hostbelasting (125 MB/s) daalde de rebuildtijd van 11.53 naar 5.32 min/TiB. Zelfs bij de zwaarste belasting werd de rebuildtijd teruggebracht van 16.96 naar 7.73 min/TiB, terwijl ook een veel hogere hostleessnelheid werd gehandhaafd (22.4 GB/s vergeleken met 60 GB/s).
Met sequentiële schrijfbelasting verbeterde de PERC13 de herbouwtijd bij lichte belasting van 7.51 naar 4.98 min/TiB, maar onder de zwaarste schrijfbelasting steeg de herbouwtijd naar 15.29 min/TiB, tegenover 760 min/TiB van de R13.09. Je kunt dit vanuit twee perspectieven bekijken: de PERC13 had een lagere herbouwsnelheid, maar de PERC13 behield schrijfsnelheden die dicht bij productieniveau lagen ten opzichte van de PERC12 (62.5 GB/s versus 12 GB/s). Met andere woorden, Priority Rebuild maakt zijn belofte van een sneller herbouwvenster waar, met name voor lees-dominante activiteiten. De enige uitzondering is wanneer het systeem gelijktijdig wordt blootgesteld aan zeer zware schrijfbewerkingen; de hogere hostdoorvoer van de PERC13 kan de herbouwtijd verlengen.
| Scenario | Dubbele PERC 12 (2 × RAID5) | Dubbele PERC 13 (2 × RAID5) | ||
|---|---|---|---|---|
| Min/TiB | Totale bandbreedte | Min/TiB | Totale bandbreedte | |
| Sequentieel lezen – Lichte activiteit | 11.53 | 0.125 GB / s | 5.32 | 0.125 GB / s |
| Sequentieel lezen – Zware activiteit | 16.96 | 22.4 GB / s | 7.73 | 60 GB / s |
| Sequentieel schrijven – Lichte activiteit | 7.51 | 0.125 GB / s | 4.98 | 0.125 GB / s |
| Sequentieel schrijven – Zware activiteit | 13.09 | 12 GB / s | 15.29 | 62.5GB / s |
Door over te stappen op Priority Host, dat opzettelijk de I/O van applicaties beschermt ten koste van de herbouwsnelheid, zijn de prestaties vergelijkbaar voor leesbewerkingen en genuanceerder voor schrijfbewerkingen. Bij leesbewerkingen voltooit de PERC13-controller herbouwbewerkingen opnieuw aanzienlijk sneller dan de oudere PERC12, met een daling van de tijd bij lichte belasting van 11.23 naar 6.70 min/TiB en bij zware belasting van 38.44 naar 19.75 min/TiB, terwijl er tegelijkertijd meer hostverkeer wordt verwerkt (46.2 GB/s versus 24.1 GB/s bij zware belasting). Bij schrijfbewerkingen houdt Priority Host de productieprestaties centraal: de PERC13 is sneller bij de laagste belasting (7.80 versus 5.67 min/TiB), maar onder de zwaarste schrijfbewerking loopt de herbouw op tot 32.81 min/TiB, vergeleken met de 12 min/TiB van de PERC25.40. De herbouwtijd is iets langer, maar de PERC13 biedt de host een veel hogere schrijfbandbreedte (62.4 GB/s versus 12.5 GB/s).
| Scenario | Dubbele PERC 12 (2 × RAID5) | Dubbele PERC 13 (2 × RAID5) | ||
|---|---|---|---|---|
| Min/TiB | Totale bandbreedte | Min/TiB | Totale bandbreedte | |
| Sequentieel lezen – Lichte activiteit | 11.23 | 0.125 GB / s | 6.70 | 0.125 GB / s |
| Sequentieel lezen – Zware activiteit | 38.44 | 24.1 GB / s | 19.75 | 46 GB / s |
| Sequentieel schrijven – Lichte activiteit | 7.80 | 0.125 GB / s | 5.67 | 0.125 GB / s |
| Sequentieel schrijven – Zware activiteit | 25.40 | 12.5 GB / s | 32.81 | 62.4 GB / s |
Vanuit implementatieperspectief is de keuze eenvoudig. Wanneer u het kwetsbaarheidsvenster wilt minimaliseren en enige I/O-deprioritering kunt tolereren, verkort Rebuild Priority op de PERC13 de herbouwtijden, met name in scenario's met veel leesbewerkingen. Wanneer het behoud van de responsiviteit van de applicatie niet onderhandelbaar is, doet Priority Host precies dat; de PERC13 excelleert nog steeds in leesherbouwingen, terwijl intensieve schrijfbewerkingen mogelijk planning of beperkte throttling rechtvaardigen als de absolute herbouwtijd een probleem vormt.
Conclusie
De Dell PERC H975i introduceert hardware-RAID als een aantrekkelijke oplossing voor NVMe-gerichte datacenters. Hoewel JBOD- en software-RAID-implementaties aan populariteit hebben gewonnen in scale-outomgevingen, introduceren deze benaderingen operationele complexiteit, CPU-overhead en langere hersteltijden bij schijfstoringen. De H975i biedt speciaal ontwikkelde hardwareversnelling met speciale pariteitsengines, versnelde herbouwbewerkingen en geïntegreerde beheermogelijkheden binnen de infrastructuurstack van Dell.
Voor AI- en machine learning-workloads die consistente doorvoerkenmerken, minimale latentievariantie en maximale uptimebetrouwbaarheid vereisen, leveren hardwarebeheerde RAID-architecturen zowel rekenprestaties als operationele veerkracht zonder dat hierbij kritieke hostverwerkingsbronnen worden verbruikt.
Prestatietests valideren de architectuurverbeteringen. De H975i levert een 88% hogere sequentiële leesbandbreedte en een 318% hogere sequentiële schrijfbandbreedte vergeleken met de PERC12-generatie. Piekmetingen van 103 GB/s doorvoer en 25.2 miljoen IOPS tonen de mogelijkheden van de controller voor data-intensieve workloads aan. Bovendien daalden de herbouwtijden van meer dan 80 minuten per terabyte naar slechts 10 minuten per terabyte, terwijl de prestaties tijdens herstelbewerkingen bijna op productieniveau bleven.
De PCIe Gen975 x5-interfaces en het front-integrated ontwerp van de H16i ondersteunen compacte GPU-implementaties zonder opslagconflicten, wat voorspelbare prestatieschaling in configuraties met meerdere accelerators mogelijk maakt. Aangezien veel PowerEdge-servers zowel de H965i als de H975i RAID-controllers aanbieden, is het duidelijk dat organisaties die gebruikmaken van opkomende workloads voor het nieuwere aanbod zouden moeten kiezen. Als u AI-infrastructuur op schaal implementeert, biedt de H975i de storagebasis met hoge bandbreedte en lage latentie die nodig is om het gebruik van rekenkracht te maximaliseren.
Dell PERC13 Gebruikershandleiding
Neem contact op met StorageReview
Nieuwsbrief | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed



Amazon