Home Enterprise NetApp AFF A800 NVMeOF-recensie

NetApp AFF A800 NVMeOF-recensie

by StorageReview Enterprise Lab

Degenen die op zoek zijn naar een krachtige all-flash storage-array, zouden goed aan hun trekken komen met de NetApp AFF A800. De end-to-end NVMe-array levert enorme prestaties en komt uit NetApp's sterke reeks AFF-arrays. We hebben de A800 eerder beoordeeld via Fibre Channel en vonden het een beest van een artiest die onze Editor's Choice-prijs opleverde. Voor deze review testen we dezelfde array, maar deze keer maken we gebruik van NVMe over Fabrics (NVMeOF).


Degenen die op zoek zijn naar een krachtige all-flash storage-array, zouden goed aan hun trekken komen met de NetApp AFF A800. De end-to-end NVMe-array levert enorme prestaties en komt uit NetApp's sterke reeks AFF-arrays. We hebben de A800 eerder beoordeeld via Fibre Channel en vonden het een beest van een artiest die onze Editor's Choice-prijs opleverde. Voor deze review testen we dezelfde array, maar deze keer maken we gebruik van NVMe over Fabrics (NVMeOF).

Aangezien dit een vervolgonderzoek is, gaan we niet in op zaken als ontwerp en bouw, specificaties of beheer. Ons initiële beoordeling gaat goed in elk van die gebieden. De opzet voor de beoordeling is in wezen hetzelfde met een andere netwerkinterface om het prestatieverschil te zien. Opgemerkt moet worden dat dit niet bepaald een vergelijking van appels met appels is. De array biedt verschillende connectiviteit voor de behoeften van verschillende gebruikers en we beoordelen verschillende typen om die gebruikers een idee te geven van wat ze kunnen verwachten met welke connectiviteitsoptie.

NVMeOF, voor het eerst geïntroduceerd in 2014, is het concept van het gebruik van een transportprotocol via een netwerk in plaats van alleen gebruik te maken van de NVMe-apparaten via de PCIe-bus. NVM Express, Inc. publiceerde de standaard voor NVMeOF in 2016. Met NVMeOF kan de NVMe-host verbinding maken met een NVMe-doelopslag terwijl de latentie laag blijft. Het algemene idee is om meer prestaties te krijgen zonder substantieel toe te voegen aan de latentie. Tot op heden zijn er veel benaderingen geweest van verschillende leveranciers waarop het protocol wordt ondersteund, of waarvan het in meerdere modi tegelijk kan draaien. De met ONTAP uitgeruste AFF A800 kan tegelijkertijd CIFS, NFS, iSCSI, FCP en FC NVMeOF uitvoeren, en dat allemaal zonder moeite. Niet alle platforms zijn op deze manier gemaakt, en zelfs de NetApp EF600 (ontworpen met iets andere doelen voor ogen) kan zowel in FCP als in FC NVMeOF worden uitgevoerd, maar niet in beide tegelijk.

Prestatieconfiguratie

De configuratie van onze NetApp AFF A800 omvatte 8 32Gb FC-poorten met 24 1.92TB NVMe SSD's geïnstalleerd. Van de 24 SSD's van 1.92 TB die in onze A800 zijn ingezet, hebben we ze opgesplitst in twee RAID-DP-aggregaten, met in feite 23 SSD's in gebruik en twee halve partities die als hot-spare worden gehouden. De helft van elke SSD is verdeeld over beide controllers, zodat elke controller de prestaties van alle geïnstalleerde SSD's kan benutten. De array was verbonden via 32Gb via twee Brocade G620-switches, die vervolgens 16 32Gb-links hadden naar 12 Dell PowerEdge R740xd-servers met SLES 12 SP4.

Elke server was uitgerust met 2 LUN's van 350 GB, wat een totale opslagcapaciteit van 8.4 TB oplevert.

Performance 

Als het gaat om het benchmarken van opslagarrays, is het testen van toepassingen het beste en komt het synthetische testen op de tweede plaats. Hoewel ze geen perfecte weergave zijn van de werkelijke werkbelasting, helpen synthetische tests wel om opslagapparaten te baseren met een herhaalbaarheidsfactor die het gemakkelijk maakt om appels met appels te vergelijken tussen concurrerende oplossingen. Deze workloads bieden een scala aan verschillende testprofielen, variërend van "four corners"-tests, algemene tests voor de grootte van database-overdrachten, evenals het vastleggen van sporen uit verschillende VDI-omgevingen. Al deze tests maken gebruik van de gemeenschappelijke vdBench-workloadgenerator, met een scripting-engine om resultaten te automatiseren en vast te leggen over een groot rekentestcluster. Hierdoor kunnen we dezelfde workloads herhalen op een breed scala aan opslagapparaten, waaronder flash-arrays en individuele opslagapparaten.

profielen:

  • 4K willekeurig lezen: 100% lezen, 128 threads, 0-120% joate
  • 4K willekeurig schrijven: 100% schrijven, 64 threads, 0-120% snelheid
  • 64K sequentieel lezen: 100% lezen, 16 threads, 0-120% jorate
  • 64K sequentieel schrijven: 100% schrijven, 8 threads, 0-120% snelheid
  • Synthetische database: SQL en Oracle

Het belangrijkste prestatievoordeel van NVMeOF met de A800 is een hogere leesprestatie en lagere latentie. Met onze eerdere tests gericht op prestaties binnen VMware met behulp van het FCP-protocol, met VMDK's gekoppeld aan meerdere VM's, richten onze NVMeOF-tests zich op bare-metal prestaties. Daarom kunt u geen directe één-op-één vergelijking maken met onze bestaande gegevens. Het is ook belangrijk op te merken dat we, voor consistente tests in al onze opslagarrays, het aantal threads voor elke opslagarray hetzelfde hebben gehouden. Met de NVMeOF-tests op de A800 merkten we enkele gebieden op waar onze test eindigde voorafgaand aan een aanzienlijke toename van de latentie. Allereerst laat dit zien dat het platform uitzonderlijk goed presteert, met een lage latentie en indrukwekkende prestatiestatistieken. Het nadeel is echter dat er wat prestatie op tafel is gebleven. NetApp heeft verklaard dat de A800 onder bepaalde omstandigheden nog hogere prestaties kan leveren dan wat we hebben gemeten.

Beginnend met 4K, begon de A800 met NVMeOF bij 217,460 IOPS met een latentie van slechts 196.8 µs en piekte op 2,184,220 IOPS met een latentie van 1.22 ms.

Voor 4K-schrijfbewerkingen begon de array bij 48,987 IOPS met een latentie van 196 µs en bereikte een piek van 465,445 IOPS bij een latentie van 2.44 ms.

De volgende stap zijn onze 64K sequentiële workloads. Voor 64K lezen kon de A800 een latentie van minder dan een milliseconde behouden met een piekprestatie van ongeveer 403K IOPS of 25GB/s met een latentie van 800µs voor een lichte terugval.

Voor 64K schrijf de A800 met NVMeOF sterk en bleef onder 1ms tot ongeveer 110K IOPS of ongeveer 7GB/s en piekte op 120,314 IOPS of 7.52GB/s met een latentie van 1.48ms.

Onze volgende reeks benchmarks zijn onze SQL-tests. In SQL bleef de A800 de hele tijd onder de 1 ms met een indrukwekkende piek van 1,466,467 IOPS bij een latentie van slechts 496.6 µs.

Voor SQL 90-10 had de A800 met NVMeOF opnieuw een indrukwekkende reeks latentieprestaties van minder dan een milliseconde, beginnend bij 139,989 IOPS en piekend bij 1,389,645 IOPS met een latentie van slechts 539.6 µs.

SQL 80-20 zag opnieuw een latentie van minder dan een milliseconde, met een piek van 1,108,068 IOPS bij een latentie van 658 µs.

Als we verder gaan met onze Oracle-workloads, bleef de A800 met NVMeOF onder de 1 ms met een piekscore van 1,057,570 IOPS bij een latentie van 860.4 µs.

Oracle 90-10 zag de A800 beginnen bij 118,586 IOPS en pieken bij 1,140,178 IOPS bij een latentie van 397.6 µs.

In Oracle 80-20 zagen we dat de A800 opnieuw een latentie van minder dan een milliseconde had, beginnend bij 104,206 IOPS en een piek van 1,003,577 IOPS bij een latentie van 468.8 µs.

Conclusie

De NetApp AFF A800 is een 4U, all-flash array die blok- en bestandstoegang ondersteunt, evenals end-to-end NVMe-ondersteuning. De A800 is bedoeld voor degenen die de meest veeleisende workloads hebben die veel prestaties en veel opslagruimte nodig hebben, met een maximale effectieve capaciteit van 316.8 PB. Terwijl onze eerste bekroonde recensie kijkend naar deze array via traditionele Fibre Channel, maakt deze recensie gebruik van NVMe boven Fabrics om te zien hoe de zaken uit de hand liepen.

Voor onze VDBench-workloads bood de NetApp AFF A800 over de hele linie een indrukwekkend aantal cijfers. In onze basisrun met vier hoeken zagen we willekeurige 4K-piekprestaties van 2.2 miljoen IOPS lezen en 465K IOPS schrijven. In onze sequentiële 64K-workloads zagen we 25 GB/s lezen en 7.52 GB/s schrijven. In onze SQL-workloads zagen we pieken van 1.5 miljoen IOPS, SQL 90-10 zag 1.4 miljoen IOPS en SQL 80-20 zag 1.1 miljoen IOPS. Onze Oracle-tests lieten een indrukwekkende 1.1 miljoen IOPS zien, Oracle 90-10 gaf ons 1.14 miljoen IOPS en Oracle 80-20 had 1 miljoen IOPS. Indrukwekkender was dat SQL- en Oracle-workloads de hele tijd onder de 1 ms latentie bleven.

Hoewel we geweldige resultaten zagen met de A800 geconfigureerd voor NVMeOF, vooral wat betreft leesprestaties, is het vermeldenswaard dat het systeem nog meer te bieden heeft. Tijdens onze tests waren de load-generatieservers allemaal gebaseerd op VMware-hypervisor, wat een extra laag complexiteit toevoegt. Bovendien ondersteunt VMware NVMeOF op dit moment niet volledig. Voor reguliere ondernemingen die volledig willen profiteren van NVMeOF met NetApp-systemen, levert bare metal de beste prestaties. Dat gezegd hebbende, zullen velen NVMeOF ONTAP-systemen in een hybride configuratie willen gebruiken, waarbij zowel fabrics als standaard Fibre Channel-connectiviteit worden gebruikt. In beide gevallen blijft NetApp toonaangevend als het gaat om het adopteren en implementeren van toonaangevende generatietechnologieën om er zeker van te zijn dat hun arrays klaar zijn voor wat hun klanten nodig hebben, wanneer ze het nodig hebben. De A800 doet het hier bijzonder goed, en daarom hebben we hem in onze eerste review een Editor's Choice toegekend. De NVMeOF voegt een enorme prestatieverbetering toe die aantrekkelijk zou moeten zijn voor ondernemingen die maximale doorvoer en latentie van microseconden nodig hebben voor hun bedrijfskritische applicaties.

Discussieer op Reddit