Hem Företag ScaleFlux CSD 2000 recension

ScaleFlux CSD 2000 recension

by Adam armstrong

ScaleFlux är ett företag som enbart fokuserar på beräkningslagring, närmare bestämt beräkningslagring i skala. Företaget gör detta i första hand med sina ScaleFlux Computational Storage Drives (CSD). Som du kanske har gissat med deras namn, är CSD en NVMe SSD integrerad med beräkningsmotorer som kan förbättra driv- och systemprestanda. Men beräkningslagring betyder många olika saker, beroende på vem du pratar med. I den här recensionen får vi ett smakprov på ScaleFlux perspektiv, med ScaleFlux CSD 2000.

ScaleFlux är ett företag som enbart fokuserar på beräkningslagring, närmare bestämt beräkningslagring i skala. Företaget gör detta i första hand med sina ScaleFlux Computational Storage Drives (CSD). Som du kanske har gissat med deras namn, är CSD en NVMe SSD integrerad med beräkningsmotorer som kan förbättra driv- och systemprestanda. Men beräkningslagring betyder många olika saker, beroende på vem du pratar med. I den här recensionen får vi ett smakprov på ScaleFlux perspektiv, med ScaleFlux CSD 2000.

ScaleFlux CSD 2000

Vad är Computational Storage?

Vi har faktiskt skrivit om beräkningslagring i flera år här på StorageReview. I ett nötskal är beräkningslagring att ta beräkningsresurser (som inte är systemets beräknings- och/eller minnesarkitektur) och placera dem i själva lagringen.

Ibland placeras dessa beräkningsresurser också mellan värden och lagringen. Detta kan minska datarörelsen, ta påfrestningarna på systemets beräkningsresurser och potentiellt öka prestanda eller åtminstone prestandakonsistens. Det finns dock många leverantörer som deltar i beräkningslagring, så det är viktigt att förstå att termen "beräkningslagring" kan betyda väldigt olika saker, beroende på produkt.

ScaleFlux CSD 2000 och Computational Storage

ScaleFlux CSD utmärker sig genom att introducera komprimerings-/dekompressionsmotorer för datavägar. Enligt företaget kan detta effektivt fyrdubbla kapaciteten och fördubbla prestanda. Naturligtvis förutsätter detta att data är komprimerbar, något grundläggande för att den här plattformen ska fungera bra. Förutsatt att förutsättningarna är de rätta blir den effektiva kapaciteten ett starkt försäljningsargument.

ScaleFlux CSD 2000 tillbaka

Det finns också ett kostnads- och densitetsargument att göra. Genom att komprimera data och skapa mer effektiv kapacitet, räknar ScaleFlux att organisationer kan spara upp till 50 % på kostnaden för flash. De kan också erbjuda "mer" blixt i samma slot tack vare komprimering.

Kostnad och effektivitet betyder lite utan prestanda, vilket ScaleFlux hävdar kan fördubblas jämfört med traditionella SSD:er? Enheten kommer i både en datacenter- och dataskalaversion men låt oss titta på toppsiffrorna här. Det högsta numret med en 1:1 datakomprimering är 750K IOPS i 4K läsning och 490K IOPS i 4K skrivning för en 2:1 datakomprimering. För sekventiella hastigheter anges enheten att nå 3 GB/s i båda komprimeringen och upp till 2.3 GB/s skriva i 1:1-komprimering.

Några andra skillnader med CSD är att den har inställbar FTL/FM som tillåter användare att optimera prestanda och pris per GB. Att köra hög prestanda kan leda till ström- och temperaturproblem, även om dessa kan strypas för att undvika överhettning. Dataskydd verkar alltid vara i nyheterna längre, och i det avseendet hävdar CSD dataskydd och ECC på alla interna minnen i datavägen samt strömförlustskydd.

För att komma in på denna CSD-åtgärd med ScaleFlux finns det ett par nackdelar. En är att enheten vi granskar är Gen 3, vid en tidpunkt då traditionella SSD-enheter har migrerat till PCIe Gen 4. Detta är ett lösbart problem. En annan hit är det för närvarande, drivrutinsstödet är begränsat till Linux. Windows och VMware är slut. Lokaliserad virtualisering skulle vara ett intressant användningsfall och moget för dataminskningsfördelar. Förhoppningsvis kommer ett mer bredbaserat stöd.

ScaleFlux CSD 2000 nyckelspecifikationer

Formfaktorer PCIe AIC & 2.5” U.2
Gränssnitt PCIe Gen3 x4 Blocklagringsenhet med låg latens
NAND Media 3D TLC och 3D QLC
Strömförlust skydd Ja
Dataskydd
  • End-to-end-skydd
  • ECC på alla minnen
  • Fullständig dataväg CRC
  • LDPC och die-level RAID-skydd
Effekt
  • 18 watt typiskt aktiv
  • 25W att max
  • 12W vid tomgång (noll utgångsfördröjning)
drifttemperatur 50 °C @ 200 LFM (AIC) 35 °C @ 200 LFM (U.2)
Temperaturskydd Termisk strypning aktiverad
MTTF 2 miljoner timmar
Beräkningsförmåga
  • Transparent datavägskomprimering
  • Accelererad prestanda
  • Utökad kapacitet
Programvarukompatibilitet Endast Linux OS 2.6 Kernel eller senare

  • Lagringsstöd: Ubuntu 16/18/20, RedHat/CentOS 6/7/8

Kompression med ScaleFlux

Ut ur porten ville vi få grepp om hur kompression genomförs. För att komma igång i Linux måste du ladda deras anpassade drivrutin för att se och interagera med enheten, som är en gren av den vanliga nvme-cli-verktygsuppsättningen. Detta gör att du kan se enheten som den är, formatera den, samt interagera och/eller ändra den användbara kapaciteten baserat på den aktuella datamängden. Nedan är ett snabbt exempel på resultatet före och efter vårt test av arbetsbelastning. Det första kommandot i "sfx-nvme list" visar den installerade enheten.

root@storagereview:~# sfx-nvme lista
Nod SN Modell Namnutrymme Användningsformat FW Rev BUS:slot:func
/dev/sfdv0n1 UC1945A7112M CSDU3RF040B1 1 3.20 TB / 3.20 TB 512 B + 0 B 4870 0000:d8:00.0

Efter vår första omgång av benchmarks med helt okomprimerbara data (vår normala arbetsdatauppsättning) ser vi att enheten visar ett komprimeringsförhållande på 1.00.

root@storagereview:~# cat /sys/block/sfdv*/sfx_smart_features/sfx_capacity_stat
fritt_utrymme fysisk_storlek logisk_storlek comp_ratio provisioned_cap space_flag
2736 6251231232 6251231312 1.00 6251233968 0

Därefter ändrade vi vdbench-komprimeringsnivån till 4x, vilket gjorde att enheten kunde fungera lite av sin magi bakom kulisserna. Efter det avslutat och vi frågade SSD igen, ser vi den ökade storleken och 4.10 komprimeringsförhållandet. Så den goda nyheten är att med denna grundläggande shakeout gör enheterna vad de påstår sig göra, när det gäller komprimeringsfunktionalitet.

root@storagereview:~# cat /sys/block/sfdv*/sfx_smart_features/sfx_capacity_stat
fritt_utrymme fysisk_storlek logisk_storlek comp_ratio provisioned_cap space_flag
4728607824 1522626144 6251231312 4.10 6251233968 0

ScaleFlux CSD 2000 Prestanda

VDBench arbetsbelastningsanalys

När det gäller benchmarking av lagringsenheter är applikationstestning bäst, och syntetiska tester kommer på andra plats. Även om det inte är en perfekt representation av faktiska arbetsbelastningar, hjälper syntetiska tester till baslagringsenheter med en repeterbarhetsfaktor som gör det enkelt att göra jämförelser mellan äpplen och äpplen mellan konkurrerande lösningar.

Dessa arbetsbelastningar erbjuder en rad olika testprofiler som sträcker sig från "fyra hörn"-tester, vanliga tester av databasöverföringsstorlekar, till spårningsfångningar från olika VDI-miljöer. Alla dessa tester utnyttjar den vanliga vdBench-arbetsbelastningsgeneratorn, med en skriptmotor för att automatisera och fånga resultat över ett stort beräkningstestkluster. Detta gör att vi kan upprepa samma arbetsbelastningar över ett brett utbud av lagringsenheter, inklusive flash-arrayer och individuella lagringsenheter.

Vår testprocess för dessa riktmärken fyller hela enhetens yta med data och partitionerar sedan en enhetssektion som motsvarar 25 % av enhetens kapacitet för att simulera hur enheten kan reagera på applikationsarbetsbelastningar. Detta är annorlunda än fullständiga entropitester, som använder 100 % av enheten och tar dem till ett stabilt tillstånd. Som ett resultat kommer dessa siffror att återspegla högre ihållande skrivhastigheter.

profiler:

  • 4K slumpmässig läsning: 100 % läsning, 128 trådar, 0-120 % iorat
  • 4K Random Write: 100% Write, 64 trådar, 0-120% iorate
  • 64K sekventiell läsning: 100 % läsning, 16 trådar, 0-120 % iorat
  • 64K sekventiell skrivning: 100 % skrivning, 8 trådar, 0-120 % iorate
  • Syntetisk databas: SQL och Oracle
  • VDI Full Clone och Linked Clone Traces

Som jämförelse kommer vi att titta på ScaleFlux SSD med VDBench som skickar inkompressibel data och 4x komprimerbar data. I slumpmässig 4K startade den inkompressibla CSD:n under 100 µs och nådde en topp på 588,893 216 IOPS med en latens på 573,460 µs. Med komprimering var enheten bara lite långsammare med en topp på 222 XNUMX IOPS vid en latens på XNUMXµs.

ScaleFlux CSD 2000 4k läsning

4K slumpmässig skrivning såg att den inkompressibla enheten toppade vid cirka 355K IOPS vid ungefär 325µs innan några tappade. Med komprimering stannade enheten under 100 µs för det mesta med en topp på cirka 572K IOPS med 168 µs för latens.

Byte över till 64K sekventiell arbetsbelastning, för att läsa den inkompressibla enheten nådde en topp på 33,785 2.11 IOPS eller 473 GB/s med en latens på 47,489 µs. Med komprimering såg vi att enheten slog 2.97 336 IOPS eller XNUMX GB/s med en lägre latens på XNUMX µs.

ScaleFlux CSD 2000 64k läsning

I 64K-skrivning körde båda konfigurationerna under 100µs för en stor del av testet. Den inkompressibla konfigurationen nådde en topp på 24,074 1.5 IOPS eller 643 GB/s med en latens på 4 µs. Med 36,364x komprimering såg vi en topp på 2.27 397 IOPS eller XNUMX GB/s med en latens på XNUMX µs.

ScaleFlux CSD 2000 sql

Vår nästa uppsättning tester är våra SQL-arbetsbelastningar: SQL, SQL 90-10 och SQL 80-20. Från och med SQL var båda datakonfigurationerna väldigt lika. Den inkompressibla toppade vid 188,269 167 IOPS och 190,370 µs för latens medan den komprimerade data som gick till enheten toppade på 167 XNUMX IOPS med en latens på också XNUMX µs.

I SQL 90-10 nådde den inkompressibla ScaleFlux CSD 2000 en topp på 185,310 172 IOPS med en latens på 4 µs. Med 220,615x komprimering till enheten nådde den en topp på 144 XNUMX IOPS och en latens på XNUMX µs.

SQL 80-20 hade den inkompressibla enhetens topp vid 179,482 177 IOPS med en latens på 221,851 µs. När vi tittade på komprimering som går till CSD, såg vi en topp på 143 XNUMX IOPS vid en latens på XNUMX µs.

Nästa upp är våra Oracle-arbetsbelastningar: Oracle, Oracle 90-10 och Oracle 80-20. Från och med Oracle nådde den inkompressibla en topp på 184,048 194 IOPS och en latens på 245,385 µs. När vi tittade på enheten med komprimering till den såg vi en topp på 135 XNUMX IOPS och en latens på XNUMX µs.

ScaleFlux CSD 2000 oracle

Oracle 90-10 hade båda startat nästan samma i prestanda och latens. Den inkompressibla versionen nådde en topp på 155,641 141 IOPS vid en latens på 175,681 µs. Med komprimeringsversionen som når en topp på 125 XNUMX IOPS med en latens på XNUMX µs.

Oracle 80-20 booth-enhetskonfigurationer startade under 100µs. Med inkompressibla data var toppen 151,983 144 IOPS vid 182,640 µs för latens. Med komprimerad data såg vi en toppprestanda på 120 XNUMX IOPs med en latens på XNUMX µs.

Därefter bytte vi till vårt VDI-klontest, Full och Linked. För VDI Full Clone (FC) Boot, ScaleFlux CSD 2000 utan inkompressibel data nådde enheten en topp på 127,616 263 IOPS med en latens på 4 µs. Att skicka 161,543x komprimeringen sänkte prestandan upp till 216 XNUMX IOPS med XNUMX µs för latens.

ScaleFlux CSD 2000 vdi fc boot

VDI FC Initial Login gav oss toppar på 78,125 379 IOPS vid 154,077 µs med inkomprimerbara data och 189 XNUMX IOPS vid XNUMX µs med komprimerade data.

För VDI FC Monday nådde den inkompressibla enheten en topp på 62,922 251 IOPS med en latens på 4µs. Med 100,680x komprimering var det en mycket högre topp vid 156 XNUMX IOPS med en latens på endast XNUMX µs.

För VDI Linked Clone (LC) Boot nådde den inkompressibla data som ska drivas en topp på 58,705 271 IOPS med latens på 4µs. När vi skickade 81,137x komprimering till enheten nådde den en topp på 196 XNUMX IOPPS och latens på XNUMX µs.

ScaleFlux CSD 2000 vdi lc boot

VDI LC Initial Login hade disken med inkomprimerbar data som nådde en toppprestanda på 36,537 215 IOPS med en latens på 4 µs. När den 56,739x komprimerade datan träffade enheten nådde den en topp på 137 XNUMX IOPS och en latens på XNUMX µs.

Slutligen, med VDI LC Monday Login nådde den inkompressibla enheten en topp på 48,814 323 IOPS med en latens på 81,799 µs. Med komprimering nådde SSD en topp på 192 XNUMX IOPS med en latens på XNUMX µs.

Slutsats

ScaleFlux fokuserar enbart på beräkningslagring. Detta görs främst genom dess SSD:er, kända som ScaleFlux Computational Storage Drives (CSD). Dessa är PCIe Gen3 SSD:er med beräkningsmotorer för att förbättra prestanda och dataeffektivitet. Företaget har en handfull olika enheter men för den här recensionen tittade vi på ScaleFlux CSD 2000.

Den huvudsakliga skillnaden mellan ScaleFlux-enheten och annan beräkningslagring är datavägens komprimerings-/dekompressionsmotor. ScaleFlux hävdar en fyrdubbling av kapaciteten samtidigt som prestandan fördubblas, tack vare deras beräkningsteknik. Detta har inte bara en prestandavinkel, utan det kan också sänka kostnaden per TB SSD-lagring med tanke på lagringseffektiviteten när data är mycket komprimerbar.

Det primära problemet är då att kompressionsmotorn fungerar? Det var ett enkelt ja, eftersom vi manipulerade komprimeringen i våra tester direkt utanför porten. Vi började med helt inkompressibel data och såg som förväntat ett förhållande från enheten på 1:1. Att byta till ett 4X kompressionsförhållande gav oss en 4.1:1 komprimeringsgrad på enheten. Det kritiska första steget möttes av en bock innan man tittade på prestanda.

Låt oss först titta på enheten utan att inkompressibel data skickas till den. Höjdpunkter inkluderar 589K IOPS i 4K-läsning, 355K IOPS i 4K-skrivning, 2.11GB/s i 64K-läsning och 1.5GB/s i 64K-skrivning. I SQL såg vi toppar på 188K IOPS, 185K IOPS i SQL 90-10 och 179K IOPS i SQL 80-20. För våra Oracle-arbetsbelastningar såg vi toppar på 184K IOPS, 156K IOPS i Oracle 90-10 och 152K IOPS i Oracle 80-20. Med våra VDI-klon-tester gav CSD 2000 utan komprimering oss 128K IOPS i start, 78K IOPS i Initial Login och 63K IOPS i Monday Login för Full Clone. För Linked Clone gav enheten oss 59K IOPS vid start, 37K IOPS vid Initial Login och 49K IOPS i Monday Login.

När vi väl skickade 4X komprimerad data blev vi glatt överraskade över att se prestandahoppet i varje test utom 4K-läsning, där det inte var så långt ifrån varandra. Höjdpunkter inkluderar 573K IOPS i 4K-läsning, 572K IOPS i 4K-skrivning, 2.97GB/s i 64K-läsning och 2.27GB/s i 64K-skrivning. I SQL såg vi toppar på 190K IOPS, 221K IOPS i SQL 90-10 och 222K IOPS i SQL 80-20. För Oracle såg vi toppar på 245K IOPS, 176K IOPS i Oracle 90-10 och 183K IOPS i Oracle 80-20. Med våra VDI-klon-tester gav ScaleFlux med komprimering oss 162K IOPS i start, 154K IOPS i Initial Login och 101K IOPS i Monday Login för Full Clone. För Linked Clone gav enheten oss 81K IOPS i uppstart, 57K IOPS i Initial Login och 82K IOPS i Monday Login.

ScaleFlux CSD 2000 är verkligen en intressant produkt och pekar på en potentiell skakning i det traditionella SSD-utrymmet när beräkningslagring får sina ben. CSD har funnits i många år nu, så konceptet är inte nytt. Det som sannolikt saknas är utförande. ScaleFlux är för sin del den första av någon av CSD-killarna som får något i vårt labb. Självförtroendet i sig bär dock inte dagen, körningen måste prestera.

I det här fallet är prestanda inte bara siffrorna du ser i våra diagram, även om det gick bra där. Beviset i denna SSD-pudding handlar om dess förmåga att fungera bra mot komprimerbar data. Den gör detta precis som förväntat i våra tester, och levererar till och med lite prestandapop i alla utom en testprofil. För att denna SSD ska vara vettig behöver användningsfallet bara justeras. Komprimerbar data kommer att dra stor nytta av ScaleFlux-tekniken, utan tvekan där. Så länge du inte behöver stöd för VMware eller Windows-virtualisering just nu, är CSD 2000 definitivt värt att utforska i en PoC för att se hur mycket din arbetsbelastning kan gynnas.

ScaleFlux

Schemalägg en PoC med ScaleFlux

Engagera dig med StorageReview

Nyhetsbrev | Youtube | LinkedIn | Instagram | Twitter | Facebook | TikTokRssflöde