De som är på marknaden för en högpresterande all-flash-lagringsuppsättning skulle bli väl bemötta med NetApp AFF A800. End-to-end NVMe-arrayen levererar enorm prestanda och kommer från NetApps starka linje av AFF-arrayer. Vi har tidigare recenserat A800 över Fibre Channel och funnit att den var ett odjur av en artist som fick vår Editor's Choice-pris. För den här recensionen testar vi samma array bara denna gång genom att utnyttja NVMe över Fabrics (NVMeOF).
De som är på marknaden för en högpresterande all-flash-lagringsuppsättning skulle bli väl bemötta med NetApp AFF A800. End-to-end NVMe-arrayen levererar enorm prestanda och kommer från NetApps starka linje av AFF-arrayer. Vi har tidigare recenserat A800 över Fibre Channel och funnit att den var ett odjur av en artist som fick vår Editor's Choice-pris. För den här recensionen testar vi samma array bara denna gång genom att utnyttja NVMe över Fabrics (NVMeOF).
Eftersom detta är en uppföljningsgranskning kommer vi inte att gå in på saker som design och konstruktion, specifikationer eller hantering. Vår inledande granskning går väl in på vart och ett av dessa områden. Inställningen för recensionen är i huvudsak densamma med ett annat nätverksgränssnitt för att se prestandaskillnaden. Det bör noteras att detta inte precis är en jämförelse mellan äpplen och äpplen. Arrayen erbjuder olika anslutningsmöjligheter för olika användares behov och vi granskar olika typer för att ge dessa användare en uppfattning om vad de kan förvänta sig med vilket anslutningsalternativ.
NVMeOF introducerades först 2014 och är konceptet att använda ett transportprotokoll över ett nätverk kontra att bara utnyttja NVMe-enheterna via PCIe-bussen. NVM Express, Inc. publicerade standarden för NVMeOF 2016. NVMeOF tillåter NVMe-värden att ansluta till en NVMe-mållagring samtidigt som latensen håller låg. Den allmänna idén är att få mer prestanda utan att väsentligt öka latensen. Hittills har det funnits många tillvägagångssätt från olika leverantörer där protokollet stöds, eller det kan köras i flera lägen samtidigt. Den ONTAP-utrustade AFF A800 kan köra CIFS, NFS, iSCSI, FCP och FC NVMeOF samtidigt, allt utan att svettas. Alla plattformar är inte gjorda på detta sätt, med till och med NetApp EF600 (designad med lite olika mål i åtanke) kan köras i antingen FCP eller FC NVMeOF, men inte båda samtidigt.
Prestandakonfiguration
Konfigurationen av vår NetApp AFF A800 inkluderade 8 32Gb FC-portar med 24 1.92TB NVMe SSD installerade. Av de 24 1.92 TB SSD-enheter som installerats i vår A800, delade vi upp dem i två RAID-DP-aggregat, med i praktiken 23 SSD-enheter i bruk och två halva partitioner som hölls som hot-spare. Hälften av varje SSD är avdelad till båda kontrollerna, så varje kontrollenhet kan utnyttja prestandan för alla installerade SSD:er. Arrayen var ansluten via 32Gb genom två Brocade G620-switchar, som sedan hade 16 32Gb-länkar till 12 Dell PowerEdge R740xd-servrar som körde SLES 12 SP4.
Varje server var försedd med 2 350 GB LUN, vilket ger en total lagringsyta på 8.4 TB.
Prestation
När det gäller benchmarking av lagringsmatriser är applikationstestning bäst, och syntetiska tester kommer på andra plats. Även om det inte är en perfekt representation av faktiska arbetsbelastningar, hjälper syntetiska tester till baslagringsenheter med en repeterbarhetsfaktor som gör det enkelt att göra jämförelser mellan äpplen och äpplen mellan konkurrerande lösningar. Dessa arbetsbelastningar erbjuder en rad olika testprofiler som sträcker sig från "fyra hörn"-tester, vanliga tester av databasöverföringsstorlek, såväl som spårfångst från olika VDI-miljöer. Alla dessa tester utnyttjar den vanliga vdBench-arbetsbelastningsgeneratorn, med en skriptmotor för att automatisera och fånga resultat över ett stort beräkningstestkluster. Detta gör att vi kan upprepa samma arbetsbelastningar över ett brett utbud av lagringsenheter, inklusive flash-arrayer och individuella lagringsenheter.
profiler:
- 4K slumpmässig läsning: 100 % läsning, 128 trådar, 0-120 % iorat
- 4K Random Write: 100% Write, 64 trådar, 0-120% iorate
- 64K sekventiell läsning: 100 % läsning, 16 trådar, 0-120 % iorat
- 64K sekventiell skrivning: 100 % skrivning, 8 trådar, 0-120 % iorate
- Syntetisk databas: SQL och Oracle
Den primära prestandafördelen med NVMeOF med A800 är en ökad läsprestanda och lägre latens. Med våra tidigare tester som fokuserar prestanda inuti VMware med FCP-protokollet, med VMDK kopplade till flera virtuella datorer, fokuserar våra NVMeOF-tester på barmetallprestanda. Därför kan du inte göra en direkt en-till-en-jämförelse med våra befintliga data. Det är också viktigt att notera att för konsekventa tester över alla våra lagringsarrayer har vi hållit trådantalet detsamma för varje lagringsarray. Med NVMeOF-testningen på A800 märkte vi vissa områden där vårt test avslutades innan en betydande latensökning. Först och främst visar detta att plattformen presterar exceptionellt bra och ger låg latens med imponerande prestandastatistik. Nackdelen är dock att en viss mängd prestanda fanns kvar på bordet. NetApp har sagt att A800 under vissa omständigheter kan ge ännu högre prestanda än vad vi mätte.
Börja med 4K och läs A800 med NVMeOF startade vid 217,460 196.8 IOPS med en latens på endast 2,184,220 µs och gick vidare till en topp på 1.22 XNUMX XNUMX IOPS med en latens på XNUMX ms.
För 4K-skrivningar startade arrayen vid 48,987 196 IOPS med en latens på 465,445 µs och gick vidare till topp vid 2.44 XNUMX IOPS vid en latens på XNUMX ms.
Nästa upp är våra 64K sekventiella arbetsbelastningar. För 64K läsning kunde A800 bibehålla en fördröjning på under millisekunder hela tiden med en toppprestanda på cirka 403K IOPS eller 25GB/s med en latens på 800µs innan ett litet fall.
För 64K skriv A800 med NVMeOF starta starkt och stannade under 1ms tills cirka 110K IOPS eller cirka 7GB/s och gick vidare till en topp på 120,314 7.52 IOPS eller 1.48GB/s med en latens på XNUMXms.
Vår nästa grupp av riktmärken är våra SQL-tester. I SQL höll A800 sig under 1 ms hela tiden med en imponerande topp på 1,466,467 496.6 XNUMX IOPS med en latens på endast XNUMX µs.
För SQL 90-10 hade A800 med NVMeOF ytterligare en imponerande körning av sub-millisekunders latensprestanda som började på 139,989 1,389,645 IOPS och toppade på 539.6 XNUMX XNUMX IOPS med en latens på bara XNUMX µs.
SQL 80-20 såg återigen submillisekunders latens genomgående med en topp på 1,108,068 658 XNUMX IOPS vid XNUMX µs latens.
När vi går vidare till våra Oracle-arbetsbelastningar stannade A800 med NVMeOF under 1 ms med ett toppvärde på 1,057,570 860.4 XNUMX IOPS vid en latens på XNUMX µs.
Oracle 90-10 såg A800 starta på 118,586 1,140,178 IOPS och nå en topp på 397.6 XNUMX XNUMX IOPS med en latens på XNUMX µs.
I Oracle 80-20 såg vi att A800 återigen hade sub-millisekunders latens genom hela start vid 104,206 1,003,577 IOPS och toppade på 468.8 XNUMX XNUMX IOPS vid XNUMX µs latens.
Slutsats
NetApp AFF A800 är en 4U, all-flash-array som stöder block- och filåtkomst, samt end-to-end NVMe-stöd. A800 riktar sig till de som har de mest krävande arbetsbelastningarna som behöver mycket prestanda och gott om lagringsutrymme, med en maximal effektiv kapacitet på 316.8 PB. Medan vår första prisbelönt recension När man tittar på den här arrayen över traditionell Fibre Channel, utnyttjar den här recensionen NVMe över Fabrics för att se hur saker skakade ut.
För våra VDBench-arbetsbelastningar erbjöd NetApp AFF A800 en imponerande uppsättning siffror över hela linjen. I våra grundläggande fyra hörnkörningar såg vi slumpmässig 4K-toppprestanda på 2.2 miljoner IOPS-läsning och 465K IOPS-skrivning. I våra sekventiella 64K-arbetsbelastningar såg vi 25 GB/s läsning och 7.52 GB/s skrivning. I våra SQL-arbetsbelastningar såg vi toppar på 1.5 miljoner IOPS, SQL 90-10 såg 1.4 miljoner IOPS och SQL 80-20 såg 1.1 miljoner IOPS. Våra Oracle-tester visade imponerande 1.1 miljoner IOPS, Oracle 90-10 gav oss 1.14 miljoner IOPS och Oracle 80-20 hade 1 miljon IOPS. Mer imponerande var SQL- och Oracle-arbetsbelastningar som höll sig under 1 ms fördröjning hela tiden.
Även om vi såg fantastiska resultat med A800 konfigurerad för NVMeOF, särskilt när det gäller läsprestanda, är det värt att notera att systemet fortfarande har mer att ge. I våra tester var belastningsgenereringsservrarna alla VMware hypervisorbaserade, vilket lägger till ytterligare ett lager av komplexitet. Dessutom stöder VMware inte fullt ut NVMeOF för närvarande. För vanliga företag som vill dra full nytta av NVMeOF med NetApp-system, ger bar metal den bästa prestandan. Som sagt, många kommer att vilja använda NVMeOF ONTAP-system i en hybridkonfiguration, med både tyger och standard Fibre Channel-anslutning. I båda fallen fortsätter NetApp att leda gruppen när det gäller att ta till sig och distribuera ledande generationsteknologier för att vara säker på att deras arrayer är redo för vad deras kunder behöver, närhelst de behöver det. A800 klarar sig särskilt bra här, och det är därför vi tilldelade den ett Editor's Choice i vår första recension. NVMeOF lägger till en massiv prestandaökning som borde tilltala företag som kräver maximal genomströmning och mikrosekunders latens för sina affärskritiska applikationer.