Högpresterande SSD:er som DapuStore Haishen5 H5100 är avgörande för avancerade applikationer som AI och HPC.
Data är mer värdefull än någonsin, så behovet av högpresterande, pålitliga och energieffektiva lagringslösningar är avgörande. DapuStor Haishen5 H5100 E3.S SSD tillgodoser dessa behov med avancerad teknik och genomtänkt teknik. Vi satte 16 av H5100:erna i arbete för att se hur snabba och kapabla dessa moderna Gen5 SSD:er är.
DapuStor Haishen5 H5100 E3.S SSD
H5100 representerar ett betydande steg framåt i lagringsprestanda, som bygger på grunden för DapuStors Gen4 SSD:er. Med den senaste Marvell Bravera PCIe Gen5 företagskontrollern, KIOXIA BiCS8 3D TLC NAND, och skräddarsydd DapuStor-firmware, erbjuder denna enhet dubbel kapacitet jämfört med dess Gen4-motsvarigheter. Med sekventiella läshastigheter på upp till 14,000 9,500 MB/s och skrivhastigheter på upp till 5 5100 MB/s, minskar HaishenXNUMX HXNUMX dramatiskt dataåtkomsttider och latens, vilket är avgörande för moderna arbetsbelastningar som de i AI och HPC.

DapuStor Haishen5 H5100 E3.S SSD
Slumpmässig läs- och skriv-IOPS når upp till 2.8 miljoner respektive 380 tusen, medan 4K slumpmässiga läsfördröjningar är mindre än 54 mikrosekunder och skrivfördröjningar är mindre än 8 mikrosekunder. Dessa prestandaförbättringar leder till snabbare databehandling, förbättrad systemrespons och förmågan att hantera mer intensiva arbetsbelastningar, vilket gör det till ett idealiskt val för applikationer som kräver höghastighetsdataöverföring och lagringseffektivitet.
Moderna datacenter och hyperskalare står inför mer än bara prestandautmaningar. Energieffektivitet blir allt viktigare. KIOXIA BiCS8 3D NAND och Marvell Bravera SC5-kontroller kombineras för att leverera hög kapacitet och energieffektivitet. BiCS8:s vertikala staplingsteknik möjliggör upp till 32TB med minskad strömförbrukning. Däremot säkerställer Bravera SC5:s dynamiska energihantering och effektiva databehandling högsta prestanda och minimal energianvändning, vilket gör den idealisk för krävande företagsapplikationer.
Flexibilitet i design är också avgörande. När nya servrar migrerar från U.2 till E3.S och hyperskalare, till och med NVIDIA har flera applikationer för E1.S, måste SSD-leverantörer stödja ett bredare utbud av formfaktorer. Med H5100 är det viktigt att notera att DapuStor stöder den äldre U.2-formfaktorn i Gen5. De stöder även hårddiskar med kapacitet på 3.84 TB och 7.68 TB i formfaktorerna E3.S och E1.S EDFFF med flera densitets- och effektivitetsfördelar jämfört med U.2-enheter.
En annan intressant aspekt av DapuStor H5100 är designen av den fasta programvaran. Att kontrollera sin firmware gör det lättare för DapuStor att integrera hur alla enheters komponenter interagerar. Denna fördel visar sig på många sätt, allt från stramare QoS till att stödja avancerade funktioner som Flexible Data Placement (FDP). DapuStor kommer att anpassa en enhets firmware för specifika användningsfall om en kund har krav utanför standardramverket. Anpassningsbara funktioner inkluderar justeringar av firmware, säkerhetsinställningar, prestandajustering och energisparkonfigurationer.
H5100 SSD innehåller avancerade Quality of Service-funktioner (QoS) för att säkerställa konsekvent prestanda och dataintegritet över olika arbetsbelastningar. Dessa QoS-funktioner gör det möjligt för enheten att hantera och prioritera I/O-operationer effektivt och bibehålla låg latens och hög genomströmning även under krävande förhållanden.
FDP-tekniken i DapuStor H5100 optimerar datahanteringen inom enheten. FDP tillåter att data skrivs in i olika fysiska utrymmen och förbättrar prestanda, uthållighet och övergripande lagringseffektivitet. Denna avancerade funktion hjälper till att minska skrivförstärkningen och förbättrar enhetens förmåga att hantera blandade arbetsbelastningar effektivt. Även om FDP bara ses i hyperscalervärlden just nu, tar FDP enorm fart inom OCP, och tack vare de inneboende uthållighetsfördelarna som FDP ger, kommer det inte att dröja länge innan mer vanliga applikationer drar nytta av.
Specifikationer för DapuStor Haishen5 H5100 SSD
Specifikation | 3.84 TB (E3.S) | 7.68 TB (E3.S) | 3.84 TB (U.2 15 mm) | 7.68 TB (U.2 15 mm) | 15.36 TB (U.2 15 mm) | 30.72 B (U.2 15 mm) | 3.84 TB (E1.S) | 7.68 TB (E1.S) |
---|---|---|---|---|---|---|---|---|
Gränssnitt | ||||||||
Läs bandbredd (128KB) MB/s | 14000 | 14000 | 14000 | 14000 | 14000 | 14000 | 14000 | 14000 |
Skrivbandbredd (128KB) MB/s | 6300 | 8800 | 6300 | 8800 | 9500 | 9500 | 4800 | 5000 |
Slumpmässig läsning (4KB) KIOPS | 2800 | 2800 | 2800 | 2800 | 2800 | 2800 | 2800 | 2800 |
Slumpmässig skrivning (4KB) KIOPS | 300 | 380 | 300 | 380 | 380 | 380 | 200 | 200 |
4K slumpmässig latens (typ) RW µs | 57/8 | 54/8 | 56/8 | 54/8 | 54/8 | 54/8 | 57/8 | 54/8 |
4K sekventiell latens (typ) RW µs | ||||||||
Typisk effekt (W) | 18 | 18 | 18 | 19 | 19 | 19 | 17.5 | 17.5 |
Tomgångseffekt (W) | 7 | 7 | 7 | 5 | 5 | 5 | 7 | 7 |
Flash-typ | ||||||||
Endurance | ||||||||
MTBF | ||||||||
UBER | ||||||||
Garanti |
Prestationsresultat
För att bättre förstå hur bra DapuStor Haishen5 H5100 E3.S SSD presterar testade vi 16 7.68TB-enheter i en Supermicro-lagringsserver. Supermicro Storage A+ ASG-1115S-NE316R är en högpresterande 1U rackmonterad server för dataintensiva applikationer. Den stöder 16 hot-swap E3.S NVMe-enheter, vilket gör den till en idealisk testbädd för dessa SSD:er. Den här servern drivs av en enda AMD EPYC 9634 84-kärnig CPU och 384 GB DDR5 ECC-minne.
Vi använde Graid-lösningen för att aggregera DapuStor SSD:erna. Graid-avlastningar skriver paritetsberäkningsarbete till en GPU, vilket frigör systemresurser för andra processer. För PCIe Gen4/5-plattformar använder Graid för närvarande NVIDIA A2000 GPU. Lagerkortet med dubbel bredd med en aktiv luftkylare på de flesta plattformar räcker. I denna Supermicro 1U-plattform med två enkelbreddsplatser har dock Graid en lösning. De har en modifierad version av NVIDIA A2000 med en tunn passiv kylare, vilket tillåter användning i serverplattformar med luftflöde men inte utrymme för något som liknar en tjockare GPU.
Med Graid på plats samlade vi lagringen i en stor RAID5-pool, och kombinerade 16 av de 7.68 TB DapuStor Haishen5 H5100 E3.S SSD:erna för att skapa en 105 TB volym. Graids standardrandstorlek för volymer är 4KB. Även om JBOD-flashprestanda kan ge högre prestanda, finns det en risk för total dataförlust om någon SSD misslyckas. En RAID-lösning skyddar från den diskförlusthändelsen och är ett bättre val för detta testscenario.
Med 16 DapuStor Haishen5 H5100 PCIe Gen5 SSD:er i en stor HW RAID5 Graid-grupp börjar vi med toppbandbredd och topp I/O-tester. Detta är en viktig faktor för kunderna. Paritetsskydd är avgörande för att förhindra dataförlust vid diskfel. Det är dock viktigt att undvika att införa för mycket overhead som kan begränsa systemets prestanda.
När vi tittar på den maximala läsbandbredden med fokus på en dataöverföringsstorlek på 1 MB, såg vi otroliga 205 GB/s från denna RAID-grupp. Det blir 12.8 GB/s per enhet för RAID16-gruppen med 5 enheter. I sekventiell skrivning mätte vi sammanlagt 105 GB/s eller 6.6 GB/s per SSD. Dessa kommer nära specifikationen för SSD:erna på 14 GB/s läsning och 8.8 GB/s skriv.
We titta på slumpmässiga överföringshastigheter i 4K för att mäta toppkapaciteten. 4K slumpmässig läsning toppade på 18.1M IOPS och 74.3GB/s, medan 4K slumpmässig skrivning var 1.873M IOPS och 7.7GB/s.
Toppkapacitet och bandbredd |
DapuStor 7.68TB x 16 HW RAID-genomströmning | DapuStor 7.68TB x 16HW RAID-bandbredd | DapuStor 7.68TB x 16HW RAID-latens |
1MB sekventiell läsning (84T/16Q) | 129k IOPS | 205GB / s | 6.9ms |
1MB sekventiell skrivning (84T/16Q) | 100k IOPS | 105GB / s | 13.4ms |
4K slumpmässig läsning (84T/32Q) | 12.8 M IOPS | 52.4GB / s | 0.21ms |
4K slumpmässig läsning (84T/256Q) | 18.1 M IOPS | 74.3GB / s | 1.184ms |
4K slumpmässig skrivning (84T/32Q) | 1.873 M IOPS | 7.7GB / s | 0.717ms |
Även om statiska läs- eller skrivtester är viktiga när man mäter toppbandbredd eller genomströmning, visar blandad I/O-prestanda över ett brett spektrum av blockstorlekar hur lagring presterar i mer traditionella användningsfall.
Vi börjar med en 4K-blockstorlek, som sträcker sig mellan 70 % till 90 % läsprocent. Med en 70 % läsning, 30 % slumpmässig skrivbelastning applicerad på DapuStor Haishen5 H5100 16 SSD RAID-gruppen, mätte vi en genomströmning på 4.173M IOPS och 17.1GB/s. Detta samtidigt som en genomsnittlig latens på bara 0.644 ms bibehålls. Genom att öka läsblandningen till 80 % ökade genomströmningen till 5.762 M IOPS och 23.6 GB/s. Vid en 90 % avläsningsblandning fortsatte prestandan att skalas upp till 7.36M IOPS och 30.1GB/s.
Blandad 4K slumpmässig genomströmning och bandbredd |
DapuStor 7.68TB x 16HW RAID-genomströmning | DapuStor 7.68TB x 16HW RAID-bandbredd | DapuStor 7.68TB x 16HW RAID-latens |
4K Random 70/30 (84T/32Q) | 4.173 M IOPS | 17.1GB / s | 0.644ms |
4K Random 80/20 (84T/32Q) | 5.762 M IOPS | 23.6GB / s | 0.466ms |
4K Random 90/10 (84T/32Q) | 7.360 M IOPS | 30.1GB / s | 0.365ms |
När vi ökar blockstorleken till 8K kommer vi närmare den traditionella databasen och OLTP-arbetsbelastningarna. Här fortsatte 16 Gen5 SSD HW RAID-gruppen att imponera på oss med sin otroliga prestanda. Med en 70% avläsningsblandning mätte vi 2.956M IOPS eller 24.3GB/s. Vid en läsblandning på 80 % ökade genomströmningen till 4.024 M IOPS och bandbredden steg till 33 GB/s. Vid 90 % avläsningsmixen mätte vi en stark 5.939M IOPS på 48.7GB/s, med en genomsnittlig latens på bara 0.452ms.
Blandad 8K slumpmässig genomströmning och bandbredd |
DapuStor 7.68TB x 16 HW RAID-genomströmning | DapuStor 7.68TB x 16 HW RAID-bandbredd | DapuStor 7.68TB x 16 HW RAID-latens |
8K Random 70/30 (84T/32Q) | 2.956 M IOPS | 24.3GB / s | 0.909ms |
8K Random 80/20 (84T/32Q) | 4.024 M IOPS | 33GB / s | 0.668ms |
8K Random 90/10 (84T/32Q) | 5.939 M IOPS | 48.7GB / s | 0.452ms |
Blockstorleken på 16K fick de bästa resultaten i vår slumpmässiga arbetsbelastningstestning. Med den GPU-accelererade HW RAID som drar ihop de 16 H5100 Gen5 SSD:erna i RAID5, kunde vi öka den användbara bandbredden på plattformen. Från och med en 70% avläsningsblandning mätte vi 1.938M IOPS och 31.7GB/s. Vid 80 % avläsning ökade det till 2.484 miljoner IOPS och 40.6 GB/s, och närmade sig bara 1 ms av genomsnittlig latens. Vid 90 % avläsningstoppen kunde lagringsmatrisen mäta 3.63 miljoner IOPS och 59.4 GB/s total bandbredd, en otrolig siffra med tanke på att detta är slumpmässig I/O som träffar matrisen.
Blandad 16K slumpmässig genomströmning och bandbredd |
DapuStor 7.68TB x 16 HW RAID-genomströmning | DapuStor 7.68TB x 16 HW RAID-bandbredd | DapuStor 7.68TB x 16 HW RAID-latens |
16K Random 70/30 (84T/32Q) | 1.938 M IOPS | 31.7GB / s | 1.386ms |
16K Random 80/20 (84T/32Q) | 2.484 M IOPS | 40.6GB / s | 1.082ms |
16K Random 90/10 (84T/32Q) | 3.630 M IOPS | 59.4GB / s | 0.740ms |
Slutsats
Högpresterande SSD:er som DapuStore Haishen5 H5100 är avgörande för avancerade applikationer. Inom artificiell intelligens och maskininlärning accelererar dessa SSD:er databehandling, vilket möjliggör snabbare modellträning och realtidsanalys. För big data-analys säkerställer de snabb datahämtning och analys, vilket stöder välgrundade affärsbeslut. I högfrekvent handel ger de den låga latens och höghastighetstransaktioner som krävs. Dessutom ger Haishen5 H5100 E3.S konsekvent och snabb dataåtkomst för virtualisering och molnberäkning, vilket är avgörande för att upprätthålla effektiva och pålitliga virtualiserade miljöer. Praktiskt taget varje användningsfall kan dra nytta av de betydande prestanda- och effektivitetsvinster som Gen5 SSD erbjuder.
I våra tester gav H5100 SSD:erna otrolig prestanda i vår täta 1U-server. Det är en mångsidig lösning för olika högpresterande applikationer som hjälper företag att möta deras föränderliga datalagringsbehov. Vi fokuserade på GPU-accelererad HW RAID-prestanda med en Graid SupremeRAID-inställning. Detta gjorde det möjligt för oss att bibehålla den starka prestandan hos 16 PCIe Gen5 SSD-enheter i denna server utan att kompromissa med lagringsintegriteten till en JBOD- eller RAID0-konfiguration. Den här installationen såg höjdpunkter som otroliga 205 GB/s läsning och 105 GB/s sekventiell skrivbandbredd med en överföringsstorlek på 1 MB. Slumpmässig I/O-prestanda var också stark, och mätte en imponerande 18.1M IOPS-läsning och 1.9M IOPS-skrivning i ett 4K-överföringstest.
Det som är lika spännande som prestandan i lådan är möjligheten att dela data över nätverket. Även om det är tidiga dagar, experimenterar vi med denna DapuStor-installation och Broadcom 400GbE OCP NIC. Med två av dessa nätverkskort i 1U-lådan förväntar vi oss att uppnå cirka 80 GB/s delad lagringsprestanda. För uppgifter som AI-träning eller realtidsdatavisualisering är ett snabbt nätverk och snabb lagring nyckeln till att maximera GPU-användningen. Vi förväntar oss mer utveckling med denna imponerande plattform.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde