ScaleFlux fokuserar unikt på beräkningslagring i stor skala. Dess nya Computational Storage Device (CSD) 3000 är en Gen4 SSD med integrerade datakomprimerings- och dekompressionsmotorer, som företaget säger kan fyrdubbla kapaciteten och dubbla prestanda. Vi kommer att sätta dessa påståenden på prov.
ScaleFlux fokuserar unikt på beräkningslagring i stor skala. Dess nya Computational Storage Device (CSD) 3000 är en Gen4 SSD med integrerade datakomprimerings- och dekompressionsmotorer, som företaget säger kan fyrdubbla kapaciteten och dubbla prestanda. Vi kommer att sätta dessa påståenden på prov.
Specifikationer för ScaleFlux CSD 3000
För bakgrund om beräkningslagring, vår ScaleFlux CSD 2000 recension (den tidigare versionen av CSD 3000 recenserad här) är värd att läsa. Kort sagt, beräkningslagring integrerar beräkningsresurser i själva lagringen istället för att förlita sig på värdsystemets beräkningsresurser.
Beräkningskraften i CSD 3000 kommer från SFX 3000 Storage Processor, ett anpassat SoC ARM-chip med dedikerad hårdvaruacceleration. Den här enheten är tillgänglig i 2.5-tums U.2-formfaktorn med kapaciteter på 3.2TB, 3.84TB, 6.4GB och 7.68TB. Den använder ett PCIe Gen4 x4-gränssnitt, en förbättring jämfört med CSD 2000:s Gen3-gränssnitt.
ScaleFlux erbjuder en liknande enhet, NSD 3000. Den har inbyggd komprimering men har inte kapacitetsmultiplikatorn för CSD 3000.
Viktiga specifikationer för CSD 3000 finns i tabellen nedan.
Formfaktor | 2.5 tum U.2 (15 mm) |
Standardkapacitet | 3.2 TB, 3.84 TB, 6.4 TB, 7.68 TB |
Värdgränssnitt | PCIe Gen4 x4 |
virtualisering | SR-IOV med 15 virtuella funktioner |
Säkerhet
|
TCG Opal 2.0 med HW Security Acceleration
|
Verksamhetsledningen | NVMe-MI 1.1 över SMBus
|
Effekt | <20W Vanligt, <5W tomgång
|
Pålitlighet | End-to-end datapatskydd, strömförlust
Skydd, LDPC-felkorrigering, NAND Die RAID |
Sekventiell läsning | 7.2 GB / s |
Sekventiell Skriv | 4.8 GB/s* |
Slumpmässig läsning (4 kB) | 1450 kIOPS |
Slumpmässig skrivning (4 kB) | 380 kIOPS* |
Hållbar 70/30 Slumpmässigt 4kB Läs/skriv med 2:1 komprimerbar Data | 1020 kIOPS |
ScaleFlux CSD 3000 Testbakgrund och jämförelser
StorageReview Enterprise Test Lab tillhandahåller en flexibel arkitektur för att utföra benchmarks för företagslagringsenheter i en miljö som är jämförbar med vad administratörer möter i verkliga implementeringar. Enterprise Test Lab innehåller en mängd olika servrar, nätverk, strömkonditionering och annan nätverksinfrastruktur som gör att vår personal kan etablera verkliga förhållanden för att noggrant mäta prestanda under våra granskningar.
Vi införlivar dessa detaljer om labbmiljön och protokollen i granskningar så att IT-proffs och de som ansvarar för lagringsanskaffning kan förstå under vilka förutsättningar vi har uppnått följande resultat.
ScaleFlux CSD 3000 testbädd
Vi använde ett annat system än vår vanliga testbädd för att granska CSD 3000. Med enheten så unik som denna är och den olika testplattformen utnyttjad, kommer vi inte att jämföra den direkt med traditionella Gen4 NVMe SSD:er. Den här recensionen utnyttjar vår Intel OEM Scalable Gen3 Server, som är välutrustad med dubbla Intel 8380-processorer, som erbjuder CPU-kraft långt över vad som behövs för att betona högpresterande lokal lagring. Dess högnivåspecifikationer inkluderar följande:
- 2 x Intel Scalable Gen3 8380
- 32 x 32 GB DDR4 3200MHz
- Ubuntu 20.04.2 Live Server (syntetiska arbetsbelastningar)
- VMware ESXi 7.0u2 (applikationsarbetsbelastningar)
- 8 x PCI Gen4 U.2 NVMe-fack
För att mäta prestandan hos ScaleFlux CSD 3000 använder vi VDbench, som kan justera nivån den kan komprimeras före varje arbetsbelastning. Vanligtvis hålls den här inställningen till 0 % som standard, men vi rampade den till 50 % för en 2:1 komprimeringsfaktor när vi testade denna SSD. Dessa två körningar återspeglas i diagrammen nedan.
ScaleFlux CSD 3000 Prestanda
Anmärkningar: Efter att vi granskat ScaleFlux CSD 3000 har vi fått två nyare modeller med produktionsfirmware. Vi har uppdaterat recensionen med de senaste resultaten från dessa två kapacitetspunkter.
VDBench arbetsbelastningsanalys
När det gäller benchmarking av lagringsenheter är applikationstestning bäst, och syntetiska tester kommer på andra plats. Även om det inte är en perfekt representation av faktiska arbetsbelastningar, hjälper syntetiska tester baslinjelagringsenheter med en repeterbarhetsfaktor som gör det enkelt att jämföra konkurrerande lösningar.
Dessa arbetsbelastningar erbjuder en rad olika testprofiler, allt från "fyra hörn"-tester och vanliga tester av databasöverföringsstorlekar för att spåra infångningar från olika VDI-miljöer. Dessa tester utnyttjar den vanliga vdBench-arbetsbelastningsgeneratorn, med en skriptmotor för att automatisera och fånga resultat över ett stort beräkningstestkluster. Detta gör att vi kan upprepa samma arbetsbelastningar över ett brett utbud av lagringsenheter, inklusive flash-arrayer och individuella lagringsenheter.
Vår testprocess för dessa riktmärken fyller hela enhetens yta med data och partitionerar sedan en enhetssektion som motsvarar 25 % av enhetens kapacitet för att simulera hur enheten kan reagera på applikationsarbetsbelastningar. Detta skiljer sig från kompletta entropitester, som använder 100 % av enheten och tar dem till ett stabilt tillstånd. Som ett resultat kommer dessa siffror att återspegla högre ihållande skrivhastigheter.
profiler:
- 4K slumpmässig läsning: 100 % läsning, 128 trådar, 0-120 % iorat
- 4K Random Write: 100% Write, 64 trådar, 0-120% iorate
- 64K sekventiell läsning: 100 % läsning, 16 trådar, 0-120 % iorat
- 64K sekventiell skrivning: 100 % skrivning, 8 trådar, 0-120 % iorate
- Syntetisk databas: SQL och Oracle
- VDI Full Clone och Linked Clone Traces
Denna enhets unika karaktär innebär att vi bara kommer att jämföra den med sig själv. För jämförelse kommer vi att titta på ScaleFlux CSD 3000 med VDBench som skickar inkompressibel data och 2:1 komprimerbar data.
I vårt första riktmärke, 4K slumpmässig läsning, klättrade CSD 3000:s komprimerade prestanda stadigt till 909K IOPS med 139µs latens för 7.68TB-modellen (3.85TB-modellen var lite tillbaka från de andra). Enheten var något långsammare utan komprimering och samma kapacitet, och toppade på 886K IOPS vid 142.4µs.
Den okomprimerade CSD 3000 visade en berg-och-dalbana-liknande kurva i vårt nästa test, 4K slumpmässig skrivning, med 7.68TB-modellen som visade de bästa resultaten av de två: toppade på 454K IOPS med 275.7µs latens. Den komprimerade enheten visade mycket bättre resultat båda slutade runt 735K IOPS och 168.2 µs.
När vi går vidare till sekventiella 64K-tester börjar vi med läsprestanda, som berättar en liknande historia (de komprimerade enheterna har återigen imponerande siffror). Båda kapaciteterna hade praktiskt taget identiska prestanda, med 3.84 TB-modellen som något sänkte den högre kapaciteten 113K IOPS (eller 7.06GB/s) vid 282µs. Den översta okomprimerade enheten (7.68 TB) nådde 98K IOPS vid 326.8 µs.
Resultaten för 64K sekventiell skrivning var ännu mer fördelaktiga med de komprimerade versionerna. Båda kapaciteterna hade återigen identiska prestanda (men som du kan se överträffade 3.84TB bara något så mycket den större kapaciteten med 96K IOPS vid 154µs latens, och låg långt under 100µs tills den närmade sig 90K IOPS. Tvärtom, den okomprimerade enheten såg kraftiga toppar, slutade på 29K IOPS vid 534 µs för 7,68 TB kapacitet och 25K IOPS vid 616.6 µs för 3.85 TB kapacitet.
Vår nästa uppsättning tester är våra SQL-arbetsbelastningar: SQL, SQL 90-10 och SQL 80-20. SQL arbetsbelastningstestet är först; CSD 3000 visar en liknande kurva när den är komprimerad och okomprimerad med högkapacitetsmodellerna, även om den komprimerade versionen var något bättre med 310K IOPS med en latens på 101.9 µs.
Med SQL 90-10 var den komprimerade CSD 7.68 på 3000 TB den bäst presterande enheten än en gång, och slutförde testet vid 311K IOPS och en latens på 101.3 µs. Som jämförelse slutade den bästa okomprimerade enheten (även 7.68 TB) på 285K IOPS och 110.8 µs i latens.
I SQL 80-20 ser vi att båda kapaciteterna hos komprimerad CSD 3000 tar topplaceringar, med 7.68 TB-modellen som slutar på 319 IOPS med 98.3 µs latens. Den okomprimerade 7.68 TB var märkbart efter (men mycket nära modellen med liten kapacitet) med 277K IOPS vid 113.5 µs.
Nästa är våra Oracle-arbetsbelastningar: Oracle, Oracle 90-10 och Oracle 80-20. Här fortsatte de komprimerade CSD 3000-enheterna sin överlägsna prestanda. Från och med Oracles arbetsbelastningsteste var den bästa visningen 7.68 TB komprimerad enhet med 336K IOPS med en latens på 103.9 µs. Den komprimerade enheten på 7.68 TB var långt tillbaka och nådde en topp på 279K IOPS med 126 µs latens.
I Oracle 90-10; den komprimerade enheten på 7.86 TB slutade på 229K IOPS med en latens på 94.7 µs. 3.84 TB (komprimerade) och 7.68 TB (okomprimerade) enheter visade identisk prestanda, med 214K IOPS vid 101.4 µs i latens.
Att gå vidare till Oracle 80-20 berättade en liknande historia än en gång. Den okomprimerade 7.68 TB-enheten slutade på 237K IOPS med en latens på 91 µs, medan den komprimerade enheten på 7.68 TB följdes med 213 IOPS med en latens på bara 101.9 µs.
Därefter bytte vi till våra VDI-klontest, Full Clone (FC) och Linked Clone (LC). Alla enheter visade mindre instabilitet i slutänden i VDI FC Boot. Komprimerad slutade 7.68TB CSD 3000 på topp igen med 270K IOPS med en 126.9µs latens; komprimerad, dess bästa prestandakapacitet för 7.68 TB-enheten igen (som faktiskt överträffade den 3.84 TB komprimerade enheten) med 242K IOPS med en latens på 141.9 µs.
VDI FC Initial Login berättar en annan historia, eftersom de komprimerade enheterna var mycket bättre medan de okomprimerade enheterna var överallt. Den komprimerade enheten på 7.68 TB toppade med 244K IOPS med 117.2 µs latens, medan 3.84 TB-modellen nådde en topp på 210K IOPS vid 137.2 µs i latens. De okomprimerade enheterna slutade på 127K IOPS med en latens på 231.1µs (7.68TB) och 94K IOPS med en latens på 312.4µs (3.84TB).
Den komprimerade CSD 3000 fortsatte att imponera i vårt senaste FC-test, Monday Login, där dess bästa siffra var 144K IOPS med en 106.9µs latens (7.68TB). Den okomprimerade 7.68TB-enheten visade 100K IOPS med en latens på 154.6µs.
Vi går nu över till LC-testerna, där alla enheter visade stabila linjer i Boot-testet. De komprimerade enheterna fortsatte sin dominans (särskilt 7.68 TB, som gav 131K IOPS och en latens på 120.1µs). Den översta okomprimerade enheten (7.68 TB) kunde nå 110 IOPS vid 144.4 µs.
Vi ser instabilt beteende från de okomprimerade enheterna i LC Initial Login där det närmar sig 20,000 49 IOPS; dess slutliga antal var 157.1K IOPS/3.84µs (56TB) och 138K IOPS/7.68µs (73TB). Som alltid visade de komprimerade enheterna bättre prestanda och stabilitet, och slutförde testet vid 103.1K IOPS/3.84µs (80TB) och 94.4K IOPS/7.68µs (XNUMXTB).
I vårt allra sista test finner de okomprimerade enheterna fortfarande att de underpresterar jämfört med de komprimerade versionerna. I LC Monday Login, som återigen visade några udda latencyspikes för de komprimerade enheterna, slutade 3.84TB och 7.68TB på 62K IOPS/250.1µs respektive 75K IOPS/207.5µs. Den komprimerade enhetens slutliga antal var mycket bättre vid 109K IOPS/140.9µs (3.84TB) och 124K IOPS/123.5µs (7.68TB).
Slutsats
ScaleFlux fortsätter att fokusera på beräkningslagring. CSD 3000-enheten vi tittade på i den här recensionen förbättras jämfört med den tidigare CSD 2000 främst genom att erbjuda ett PCIe Gen4-gränssnitt, vilket ger den mycket högre prestandapotential.
Vi testade CSD 3000 under Linux i vår Intel OEM Gen3 skalbara server i okomprimerat tillstånd och igen i ett 2:1 komprimerat tillstånd för att dra fördel av enhetens inbyggda komprimeringsmotorer. Enheten visade överlägsen prestanda och lägre latens i alla tester med komprimerbar data, ofta med tvåsiffriga prestandadelta.
Prestandahöjdpunkter (toppresultat/kapacitet) med komprimerad data inkluderar 909K IOPS i 4K slumpmässig läsning för 7.68TB (mot 886K IOPS okomprimerad), 735K IOPS i 4K slumpmässig skrivning för 7.68TB (454K IOPS okomprimerad/s in7.06GB), 64GB. 3.85K sekventiell läsning för 6.12TB (6GB/s okomprimerad) och 64GB/s i 1.82K sekventiell skrivning (XNUMXGB/s okomprimerad).
CSD 3000 visade liknande komprimerade och okomprimerade siffror i våra SQL- och Oracle-tester, även om den komprimerade enheten var mer konsekvent. I ett exempel, SQL 80-20, uppnådde den komprimerade enheten 319 IOPS vid 98.3 µs latens (7.68 TB-modell) medan den okomprimerade modellen var märkbart efter med 277K IOPS vid 113.5 µs
Slutligen såg våra VDI Full- och Linked-klontest de mest märkbara skillnaderna mellan CSD 3000 som körde komprimerad jämfört med okomprimerad data – det vill säga de komprimerade data presterade mycket bättre och mer konsekvent. För att välja ett exempel, visade VDI LC Initial Login de okomprimerade enheterna med toppprestanda på 49K IOPS/157.1µs (3.84TB) och 56K IOPS/138µs (7.68TB) medan de komprimerade enheterna visade slutföra testet vid 73K 103.1.µPS/3.84s (80K IOPS/94.4s) 7.68TB) och XNUMXK IOPS/XNUMXµs (XNUMXTB).
Som en varning såg vi några oförklarliga latensspikar och minskad prestanda när vi körde okomprimerad data. Detta inträffade i våra 4K/64K-, SQL/Oracle- och VDI FC/LC-testningar, så det var inte bara isolerat till ett scenario.
CSD3000:s styrkor kommer bäst att visas när den kan arbeta med en del komprimerbar data, eftersom det är där den kommer att ha de största fördelarna överlag jämfört med traditionella SSD:er. ScaleFlux har också lagt till VMWare-stöd med den här versionen, vilket den inte hade när vi granskade den tidigare CSD 2000. Det är ett stort plus, men det saknas fortfarande stöd för Windows-virtualisering. Icke desto mindre är ScaleFluxs CSD 3000 värt att överväga om du kan anpassa dina arbetsbelastningar med plattformsstöd och enhetens betydande kompressionsstyrkor.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde