Memblaze har släppt en serie 64-lagers, 3D NAND NVMe SSD:er i PBlaze5 910-916-serien. Enheterna släpptes i både U.2- och AIC-formfaktorer med 910 som går hela vägen upp till 15.36 TB i kapacitet. Den högre uthållighetsversionen av enheten är 916. Vi har tidigare granskat den 916 U.2 SSD och fokuserar nu på den högre presterande HHHL AIC-versionen.
Memblaze har släppt en serie 64-lagers, 3D NAND NVMe SSD:er i PBlaze5 910-916-serien. Enheterna släpptes i både U.2- och AIC-formfaktorer med 910 som går hela vägen upp till 15.36 TB i kapacitet. Den högre uthållighetsversionen av enheten är 916. Vi har tidigare granskat den 916 U.2 SSD och fokuserar nu på den högre presterande HHHL AIC-versionen.
Memblaze PBlaze5 916 AIC SSD kommer med alla fördelarna med U.2-versionen inklusive AES 256 Data Encryption, Full Data Path Protection och Enhanced Power Failure-skydd. 916-versionerna har också högre uthållighet och stöder 3 DWPD jämfört med 910 som bara stöder 1 DWPD. 916 AIC utnyttjar de fyra extra banorna för att driva ännu mer prestanda med angivna hastigheter på upp till 5.9 GB/s läsning och 2.8 GB/s skrivning med genomströmning så hög som 1 miljon IOPS-läsning och 303K IOPS-skrivning.
Memblaze PBlaze5 916 AIC SSD kommer i både 3.2 TB och 6.4 TB, för den här recensionen tittar vi på 6.4 TB-versionen.
Memblaze PBlaze5 916 Series AIC-specifikationer
Användarkapacitet (TB) | 3.2, 6.4 |
Formfaktor | HHHL AIC |
Gränssnitt: | PCIe 3.0 x 8 |
Sekventiell läsning (128KB)(GB/s) | 5.5, 5.9 |
Sekventiell skrivning(128KB)(GB/s) | 3.1, 3.8 |
Sustained Random Read (4KB) IOPS | 850K, 1,000K |
Sustained Random Write (4KB) IOPS (Steady State) | 210K, 303K |
Latens Läs/skriv | 87 / 11 μs |
Livstids uthållighet | 3 DWPD |
UBER | <10-17 |
MTBF | 2 miljoner timmar |
Protokoll | NVMe 1.2a |
NAND Flash Memory | 3D eTLC NAND |
Operativsystem | RHEL, SLES, CentOS, Ubuntu, Windows Server, VMware ESXi |
Energiförbrukning | 7 ~ 25 W |
Stöd för grundläggande funktioner | Strömavbrottsskydd, Hot Pluggable, Full Data Path Protection, SMART: TRIM, Multi-namespace, AES 256 Data Encryption, Fast Reboot, Crypto Erase, |
Stöd för avancerade funktioner | TRIM, Multi-namespace, AES 256 Data Encryption, Fast Reboot, Crypto Erase, Dual Port |
Programvaru Support | Hanteringsverktyg för öppen källkod, CLI-felsökningsverktyg, drivrutin för OS i lådan (Enkel systemintegration) |
Prestation
Testbädd
Våra Enterprise SSD-recensioner använder en Lenovo ThinkSystem SR850 för applikationstester och en Dell PowerEdge R740xd för syntetiska riktmärken. ThinkSystem SR850 är en välutrustad quad-CPU-plattform som erbjuder CPU-kraft långt över vad som behövs för att betona högpresterande lokal lagring. Syntetiska tester som inte kräver mycket CPU-resurser använder den mer traditionella servern med dubbla processorer. I båda fallen är avsikten att visa upp lokal lagring i bästa möjliga ljus som är i linje med lagringsleverantörens maximala enhetsspecifikationer.
Lenovo ThinkSystem SR850
- 4 x Intel Platinum 8160 CPU (2.1 GHz x 24 kärnor)
- 16 x 32 GB DDR4-2666Mhz ECC DRAM
- 2 x RAID 930-8i 12Gb/s RAID-kort
- 8 NVMe-fack
- VMware ESXI 6.5
Dell PowerEdge R740xd
- 2 x Intel Gold 6130 CPU (2.1 GHz x 16 kärnor)
- 4 x 16 GB DDR4-2666MHz ECC DRAM
- 1x PERC 730 2GB 12Gb/s RAID-kort
- Tillägg NVMe-adapter
- Ubuntu-16.04.3-desktop-amd64
Testbakgrund och jämförelser
Smakämnen StorageReview Enterprise Test Lab ger en flexibel arkitektur för att utföra riktmärken för företagslagringsenheter i en miljö som är jämförbar med vad administratörer möter i verkliga implementeringar. Enterprise Test Lab innehåller en mängd olika servrar, nätverk, strömkonditionering och annan nätverksinfrastruktur som gör att vår personal kan etablera verkliga förhållanden för att noggrant mäta prestanda under våra granskningar.
Vi införlivar dessa detaljer om labbmiljön och protokollen i granskningar så att IT-proffs och de som ansvarar för lagringsanskaffning kan förstå under vilka förutsättningar vi har uppnått följande resultat. Ingen av våra recensioner betalas för eller övervakas av tillverkaren av utrustning vi testar. Ytterligare information om StorageReview Enterprise Test Lab och en översikt över dess nätverkskapacitet finns på respektive sida.
Jämförelser för denna recension:
- Memblaze PBlaze5 3.2TB
- Liqid Element AIC 7.68TB
- Intel SSD DC P4610 1.6TB
- Huawei ES3000 V5 3.2TB
- Intel SSD DC P4510 2TB, 8TB
- Memblaze PBlaze5 910 AIC 7.68TB
Analys av applikationens arbetsbelastning
För att förstå prestandaegenskaperna hos företagslagringsenheter är det viktigt att modellera infrastrukturen och applikationens arbetsbelastningar som finns i live-produktionsmiljöer. Våra riktmärken för Memblaze PBlaze5 916 är därför MySQL OLTP-prestanda via SysBench och Microsoft SQL Server OLTP-prestanda med en simulerad TCP-C-arbetsbelastning. För våra applikationsarbetsbelastningar kommer varje enhet att köra 2-4 identiskt konfigurerade virtuella datorer.
SQL Server prestanda
Varje SQL Server VM är konfigurerad med två vDisks: 100 GB volym för uppstart och en 500 GB volym för databasen och loggfiler. Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 64 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern. Medan våra Sysbench-arbetsbelastningar som tidigare testats mättade plattformen i både lagrings-I/O och kapacitet, letar SQL-testet efter latensprestanda.
Det här testet använder SQL Server 2014 som körs på Windows Server 2012 R2 gäst-VM, och betonas av Quests Benchmark Factory for Databases. StorageReview's Microsoft SQL Server OLTP-testprotokoll använder det aktuella utkastet till Transaction Processing Performance Councils Benchmark C (TPC-C), ett riktmärke för transaktionsbearbetning online som simulerar de aktiviteter som finns i komplexa applikationsmiljöer. TPC-C-riktmärket kommer närmare än syntetiska prestandariktmärken att mäta prestandastyrkorna och flaskhalsarna hos lagringsinfrastruktur i databasmiljöer. Varje instans av vår SQL Server VM för denna granskning använder en 333 GB (1,500 15,000 skala) SQL Server-databas och mäter transaktionsprestanda och latens under en belastning på XNUMX XNUMX virtuella användare.
SQL Server-testkonfiguration (per virtuell dator)
- Windows Server 2012 R2
- Lagringsutrymme: 600 GB tilldelat, 500 GB använt
- SQL Server 2014
- Databasstorlek: 1,500 XNUMX skala
- Virtuell klientbelastning: 15,000 XNUMX
- RAM-buffert: 48GB
- Testlängd: 3 timmar
- 2.5 timmars förkonditionering
- 30 minuters provperiod
För vårt SQL Server-transaktionsriktmärke hamnade Memblaze PBlaze5 916 AIC på tredje plats med 12,645.0 1.1 TPS även om det bara var XNUMX TPS från topplaceringen.
För att få en bättre förståelse för prestanda måste latens också tittas på. Här kom 916 AIC på andra plats med bara 1.3 ms som slog resten av 910/916-serien.
Sysbench Performance
Nästa benchmark för ansökan består av en Percona MySQL OLTP-databas mätt via SysBench. Detta test mäter också genomsnittlig TPS (Transactions Per Second), genomsnittlig latens och genomsnittlig 99:e percentil latens.
Varje sysbench VM är konfigurerad med tre vDisks: en för uppstart (~92GB), en med den förbyggda databasen (~447GB), och den tredje för databasen som testas (270GB). Ur ett systemresursperspektiv konfigurerade vi varje virtuell dator med 16 vCPU:er, 60 GB DRAM och utnyttjade LSI Logic SAS SCSI-kontrollern.
Sysbench-testkonfiguration (per virtuell dator)
- CentOS 6.3 64-bitars
- Percona XtraDB 5.5.30-rel30.1
- Databastabeller: 100
- Databasstorlek: 10,000,000 XNUMX XNUMX
- Databastrådar: 32
- RAM-buffert: 24GB
- Testlängd: 3 timmar
- 2 timmar förkonditionering 32 trådar
- 1 timme 32 trådar
Med Sysbenchs transaktionsriktmärke hamnade 916 AIC på andra plats med 9,298 XNUMX TPS.
För Sysbenchs genomsnittliga latens stannade 916 AIC på andra plats med 13.8 ms.
För vårt värsta scenario latens (99:e percentilen) tog 916 AIC topplaceringen med endast 25.2ms latens.
Houdini från SideFX
Houdini-testet är speciellt utformat för att utvärdera lagringsprestanda när det gäller CGI-rendering. Testbädden för denna applikation är en variant av kärnan Dell PowerEdge R740xd servertyp vi använder i labbet med dubbla Intel 6130-processorer och 64GB DRAM. I det här fallet installerade vi Ubuntu Desktop (ubuntu-16.04.3-desktop-amd64) med ren metall. Resultatet av riktmärket mäts i sekunder att slutföra, och färre är bättre.
Maelstrom-demon representerar en del av renderingspipelinen som belyser lagringskapaciteten genom att demonstrera dess förmåga att effektivt använda växlingsfilen som en form av utökat minne. Testet skriver inte ut resultatdata eller bearbetar punkterna för att isolera väggtidseffekten av latenspåverkan på den underliggande lagringskomponenten. Själva testet är sammansatt av fem faser, varav tre vi kör som en del av benchmark, vilka är följande:
- Laddar packade punkter från disken. Det är dags att läsa från disk. Denna är enkelgängad, vilket kan begränsa den totala genomströmningen.
- Packar upp punkterna i en enda platt array för att de ska kunna bearbetas. Om punkterna inte är beroende av andra punkter, kan arbetsuppsättningen justeras för att förbli i kärnan. Detta steg är flertrådigt.
- (Kör ej) Bearbetar punkterna.
- Packar om dem i hinkformade block som lämpar sig för att lagra tillbaka till disken. Detta steg är flertrådigt.
- (Kör ej) Skriver tillbaka de bucketade blocken till disken.
Med Houdini-testet hade 916 AIC en poäng på 3,070.7 910 sekunder som landade omkring dödpunkten för icke-Optane-enheterna och ända upp mot XNUMX AIC.
VDBench arbetsbelastningsanalys
När det gäller benchmarking av lagringsenheter är applikationstestning bäst, och syntetiska tester kommer på andra plats. Även om det inte är en perfekt representation av faktiska arbetsbelastningar, hjälper syntetiska tester till baslagringsenheter med en repeterbarhetsfaktor som gör det enkelt att göra jämförelser mellan äpplen och äpplen mellan konkurrerande lösningar. Dessa arbetsbelastningar erbjuder en rad olika testprofiler som sträcker sig från "fyra hörn"-tester, vanliga tester av databasöverföringsstorlekar, till spårningsfångst från olika VDI-miljöer. Alla dessa tester utnyttjar den vanliga vdBench-arbetsbelastningsgeneratorn, med en skriptmotor för att automatisera och fånga resultat över ett stort beräkningstestkluster. Detta gör att vi kan upprepa samma arbetsbelastningar över ett brett utbud av lagringsenheter, inklusive flash-arrayer och individuella lagringsenheter. Vår testprocess för dessa riktmärken fyller hela enhetens yta med data och partitionerar sedan en enhetssektion som motsvarar 25 % av enhetens kapacitet för att simulera hur enheten kan reagera på applikationsarbetsbelastningar. Detta skiljer sig från fullständiga entropitester som använder 100 % av enheten och tar dem till ett stabilt tillstånd. Som ett resultat kommer dessa siffror att återspegla högre ihållande skrivhastigheter.
profiler:
- 4K slumpmässig läsning: 100 % läsning, 128 trådar, 0-120 % iorat
- 4K Random Write: 100% Write, 64 trådar, 0-120% iorate
- 64K sekventiell läsning: 100 % läsning, 16 trådar, 0-120 % iorat
- 64K sekventiell skrivning: 100 % skrivning, 8 trådar, 0-120 % iorate
- Syntetisk databas: SQL och Oracle
- VDI Full Clone och Linked Clone Traces
I vår första VDBench Workload Analysis, Random 4K Read, jämfördes Memblaze PBlaze5 916 AIC med två andra AIC-enheter: Memblaze PBlaze5 910 och Liqid Element. Här sprang 916:an hals och nacke fallande strax bakom 910:an, med Liqid långt ut i ledningen. 916:an startade vid 81,010 99 IOPS med 809,069 μs och fortsatte med sin topp vid 157 XNUMX IOPS med en latens på XNUMX μs.
Slumpmässig 4K-skrivning visade samma placering för 916, sist. Här startade 916:an på 64,157 17.7 IOPS med bara 100μs. Enheten kunde hålla sig under 25 μs, verkligen 578 μs, fram till cirka XNUMXK IOPS där den toppade innan den släppte.
När vi byter till sekventiella arbetsbelastningar tittar vi först på 64K sekventiella läsningar. Här kom återigen 916:an i botten av vårt pack bara efter 910:an. 916:an nådde en topp på 50,011 3.13 IOPS eller 319GB/s med en latens på XNUMXμs.
64K write såg 916:an glida in på andra plats precis bakom 910:an. Här startade 916:an vid 4,308 256 IOPS eller 50MB/s och körde 30μs latenslinjen upp till 1.85K IOPS eller 42,319GB/s innan den toppade på 2.65 IOPS eller 370 GB/s vid XNUMX μs latens.
Nästa upp är våra SQL-arbetsbelastningar, även här var 916:an i botten men bara en hårböjning för 916:an. 916:an startade på 27,120 100.9 IOPS vid 269,845 μs latens och toppade på 118.1 18 IOPS med en latens på XNUMX μs. Endast en XNUMXμs latensskillnad börjar ta slut.
För SQL 90-10 var 916:an på tredje plats och började med 27,381 97.7 IOPS och en latens på 916 μs. 100:an gick över 82 μs vid cirka 273,081K IOPS och fortsatte med sin topp vid 116.3 XNUMX IOPS med en latens på XNUMX μs.
Med SQL 80-20 var 916:ans placering densamma från 28,023 88.9 IOPS och 277,572 μs latens och toppade på 114.6 XNUMX IOPS med en latens på XNUMX μs.
För vår Oracle-arbetsbelastning klarade 916:an knappt 910:an. Här startade enheten vid 30,716 91.2 IOPS med en latens på 282,888 μs och nådde en topp på 126.2 XNUMX IOPS med en latens på XNUMX μs.
Oracle 90-10 såg 916 falla tillbaka för att hålla, knappt. Här startade drivningen vid 40,494 98.2 IOPS med en latens på 202,512 μs och toppade på 107.9 XNUMX IOPS med en latens på XNUMX μs.
För Oracle 80-20 ser vi att 916 igen knappt tar tvåa från 910. Drivenheten startade vid 42,276 87.6 IOPS med en latens på 100 μs och stannade under 169 μs tills cirka 210,628K IOPS fortsatte att nå en topp vid 103.8 XNUMX IOPS XNUMX s med en latens av XNUMX s. .
Därefter går vi vidare till vårt VDI-klontest, Full and Linked. För VDI Full Clone Boot tog 916 en tredjeplats med start på 22,788 107.9 IOPS med 218,323 μs latens och toppade på 158.9 XNUMX IOPS med XNUMX μs latens.
För VDI FC Initial Login kom 916:an på andra plats efter 910:an med start på 15,487 69.7 IOPS med en latens på 100μs och stannade under 65μs till cirka 147,777K IOPS. Enheten nådde en topp på 199.4 XNUMX IOPS och en latens på XNUMX μs.
VDI FC Monday Login hade 916-tagningen först med start på 10,213 89.4 IOPS och en latens på 100μs. Enheten stannade under 35 μs till cirka 101,673 155.5 IOPS och fortsatte med en topp på XNUMX XNUMX IOPS med en latens på XNUMX μs.
För VDI Linked Clone (LC) börjar vi igen med starttestet. Här placerade 916 sig på tredje plats med början på 9,598 127 IOPS vid 98,621 μs latens och toppade på 161.6 XNUMX IOPS med en latens på XNUMX μs.
I VDI LC Initial Login tog 916:an ut 910:an för att ta andra plats. Här startade drivningen vid 5,599 94.2 IOPS med en latens på 100μs och gick över 20μs vid ca 916K IOPS. 55,416:an nådde en topp på 142.1 XNUMX IOPS med en latens på XNUMXμs.
Slutligen såg VDI LC Monday Login att 916 tog först med en toppprestanda på 78,483 201.3 IOPS och en latens på XNUMX μs.
Slutsats
Memblaze PBlaze5 916 är en av företagets 64-lagers, 3D NAND NVMe SSD:er. För denna specifika recension tittade vi på AIC-formfaktorn. AIC-formfaktorn tillåter alla samma fördelar med 916-linjen, AES 256-datakryptering, Full Data Path Protection, Enhanced Power Failure-skydd och högre uthållighet, samtidigt som den ger ännu högre prestanda än dess U.2-motsvarighet. 916 AIC har noterade hastigheter så höga som 5.9 GB/s läsning och 2.8 GB/s skrivhastighet med genomströmning så hög som 1 miljon IOPS-läsning och 303K IOPS-skrivning tillsammans med 3DWPD.
För vår analys av applikationsarbetsbelastningen visade Memblaze PBlaze5 916 AIC stark prestanda i både SQL Server och Sysbench. Disken kom på tredje plats i SQL Server Output med 12,645 1.3 TPS och en genomsnittlig latens på 916 ms vilket placerade den på andra plats. För Sysbench hade 9,298 AIC 13.8 25.2 TPS, en genomsnittlig latens på 3070.7 ms, och tog topplatsen i vårt värsta scenario latens med XNUMX ms. Houdini visade mindre stark prestation med XNUMX sekunder.
För vår VDBench testade vi 916 AIC mot två andra AIC-modeller, Memblaze PBlaze5 910 AIC och Liqid Element AIC. Här var prestationen bra men placeringen gjorde att det verkade blandat. Ofta kom 916:an sist mot de andra två dreven, men den var inom sniffavstånd från 910:an varje gång. Höjdpunkter inkluderar en slumpmässig 4K-läspoäng på 809K IOPS, en slumpmässig 4K-skrivpoäng på 578K IOPS, en 64K-sekventiell poäng på 3.13GB/s och en sekventiell skrivpoäng på 2.65GB/s. Det som är mer intressant här var latens. Även vid topp var 370 μs den högsta med frekvensomriktaren som körde under 25 μs under en majoritet av den slumpmässiga 4K-skrivningen. SQL visade topppoäng över en kvarts miljon IOPS i varje test och latensen varierade från 88.9 μs till endast 118.1 μs, mycket lågt och konsekvent i alla tester. Oracle-topppoängen var inte lika starka som SQL (även om den första var 283K IOPS) men den hade en annan visning av låg konsekvent latens från 87.6 μs till 126.2 μs vid den högsta toppen.
Memblaze PBlaze5 916 AIC är ett idealiskt val för applikationer som behöver konsekvent låg latens. Även om Add In Card-karaktären gör att det avstår från hot-swappability (gör det potentiellt högre underhåll – även om det har hög uthållighet också) kompenserar det mer än för det i prestanda, särskilt latensprestanda.
Anmäl dig till StorageReviews nyhetsbrev