Home Enterprise VMware Virtual SAN Review: geschaalde Sysbench OLTP-prestaties

VMware Virtual SAN Review: geschaalde Sysbench OLTP-prestaties

by StorageReview Enterprise Lab

Na het bekijken van de prestatieniveaus van het VMware VSAN-cluster met een traditionele Sysbench OLTP werklast, wilden we weten hoe goed het platform reageert met een verhoogde werklast voor meer veeleisende gebruiksscenario's. De initiële implementatie bestond uit vier Sysbench VM's, 1 per node, maar die werklast bracht de schijf-I/O niet naar een hoog genoeg bereik waar we vonden dat de resources volledig werden benut. Dit is vergelijkbaar met een klant die een POC uitvoert, deze test onder een subset van hun huidige werklast, maar niet meet hoe goed het platform reageert naarmate de werklast in de loop van de tijd toeneemt of naarmate er meer applicatiegegevens worden gemigreerd. Om beter te begrijpen hoe dit VSAN-cluster reageert onder steeds toenemende MySQL-workloads, hebben we de vier Sysbench VM-benchmark (1 per knooppunt) geschaald naar 8 en 12 totale VM's.


Na het bekijken van de prestatieniveaus van het VMware VSAN-cluster met een traditionele Sysbench OLTP werklast, wilden we weten hoe goed het platform reageert met een verhoogde werklast voor meer veeleisende gebruiksscenario's. De initiële implementatie bestond uit vier Sysbench VM's, 1 per node, maar die werklast bracht de schijf-I/O niet naar een hoog genoeg bereik waar we vonden dat de resources volledig werden benut. Dit is vergelijkbaar met een klant die een POC uitvoert, deze test onder een subset van hun huidige werklast, maar niet meet hoe goed het platform reageert naarmate de werklast in de loop van de tijd toeneemt of naarmate er meer applicatiegegevens worden gemigreerd. Om beter te begrijpen hoe dit VSAN-cluster reageert onder steeds toenemende MySQL-workloads, hebben we de vier Sysbench VM-benchmark (1 per knooppunt) geschaald naar 8 en 12 totale VM's.

Dell PowerEdge R730xd VMware VSAN-specificaties

  • Dell PowerEdge R730xd-servers (x4)
  • CPU's: acht Intel Xeon E5-2697 v3 2.6 GHz (14C/28T)
  • Geheugen: 64 x 16 GB DDR4 RDIMM
  • SSD: 16 x 800 GB Solid State Drive SAS Mix Gebruik MLC 12 Gbps
  • HDD: 80 x 1.2 TB 10 RPM SAS 6 Gbps
  • Netwerken: 4 x Intel X520 DP 10Gb DA/SFP+, + I350 DP 1Gb Ethernet
  • Opslagcapaciteit: 86.46TB

Sysbench-prestaties

Elke Sysbench VM is geconfigureerd met drie vDisks, één voor opstarten (~ 92 GB), één met de vooraf gebouwde database (~ 447 GB) en de derde voor de database die wordt getest (400 GB). Vanuit het perspectief van systeemresources hebben we elke VM geconfigureerd met 16 vCPU's, 64 GB DRAM en de LSI Logic SAS SCSI-controller gebruikt.

Met een belasting van 8 VM's zagen we Sysbench VM's elk tussen de 5,200 en 6,300 MHz verbruiken, waarbij de totale hostbronnen aangeven dat ongeveer 18,000 MHz werd gebruikt. Hierdoor bleven veel CPU-bronnen over met slechts 22% gebruikt per host, hoewel we bij een werklast van 8 Sysbench VM's bijna alle beschikbare SSD-cache gebruikten. Voor opslagimpact hebben we 16 Sysbench VM's geladen om de totale voetafdruk te vergroten, waarbij ongeveer 14 TB van de 86.46 TB totale VSAN-opslagcapaciteit wordt verbruikt. Op het moment van de 8 VM-workload was echter slechts 7 TB van die 14 TB actief. Dit is vergelijkbaar met 3.5 TB in de 4 VM-workload.

Sysbench-testconfiguratie (per VM)

  • CentOS 6.3 64-bits
  • Opslagcapaciteit: 1 TB, 800 GB gebruikt
  • Percona XtraDB 5.5.30-rel30.1
    • Databasetabellen: 100
    • Databasegrootte: 10,000,000
    • Database-threads: 32
    • RAM-buffer: 24 GB
  • Testduur: 12 uur
    • 6 uur preconditionering 32 threads
    • 1 uur 32 draden
    • 1 uur 16 draden
    • 1 uur 8 draden
    • 1 uur 4 draden
    • 1 uur 2 draden

Terwijl we de Sysbench OLTP-workload schaalden, maten we een prestatieverbetering van 2,830 TPS in totaal met 4 VM's tot 4,259 TPS met 8 VM's. Dit komt neer op een prestatiesprong van 50% met een verdubbeling van de werkbelasting.

Met de verbeterde geaggregeerde transactieprestaties hebben we de gemiddelde latentietoename gemeten van 45 ms naar 60 ms per VM. Dit is een sprong van ongeveer 33% ten opzichte van de kleinere werklast.

De gemiddelde latentie van het 99e percentiel nam ook toe van 94 ms naar 131 ms naarmate de I/O-eisen toenamen.

Terwijl de benchmark actief was, hebben we CPU-, schijf- en netwerkstatistieken van vCenter vastgelegd. Tijdens de 8 VM-test zagen we een VM-CPU-spreiding van 5,275 MHz tot 6,393 MHz over de VM's.

Met 2 actieve VM's per node zagen we een gemengde schijfactiviteit van in totaal 609 MB/s nadat de werklast was begonnen. De grotere pieken werden gemeten terwijl de vooraf gebouwde database zichzelf aan het kopiëren was binnen elke VM aan het begin van de test.

Netwerkverkeer van één host tijdens de 8 VM Sysbench-test mat een gemengde 391 MB/s nadat de test was afgevlakt.

Aangezien het doel van deze test is om te laten zien hoe VSAN reageert op een steeds toenemende werklast, hebben we het platform na de run van 12 VM's in totaal naar 8 VM's gebracht. Dit was het breekpunt waarop een deel van de werklast buiten de SSD-cache duwde. We hebben deze prestaties niet in kaart gebracht omdat de meeste werklasten niet werden voltooid of niet de juiste scores kregen. Voor de VM's die wel zijn geëindigd, zouden we totale transactieprestaties hebben gezien van slechts 1000-1500TPS in het hele cluster. De prestatiedaling die we hebben gemeten, kan natuurlijk worden beperkt met grotere flash-apparaten, zoals SSD's van 1.6 TB in plaats van 800 GB, of door over te stappen op een all-flash VSAN-model waar het overlopen in uw read-tier niet zo'n grote impact heeft I/O-daling. Dit onderstreept de noodzaak om de flash-component van de VSAN-omgeving correct te dimensioneren, beheerders of hun resellerpartners moeten goede kennis hebben van de werkende dataset. Dit is een van de belangrijkste sterke punten van het VSAN-platform; waardoor klanten configuraties kunnen afstemmen op de behoeften van huidige en toekomstige workloads of goedkoop SSD's kunnen verwisselen/toevoegen als dat nodig is.

Weten waar de breekpunten van uw platform zijn, is erg belangrijk. De in eerste instantie geïmplementeerde workloads zullen gewoonlijk in de loop van de tijd toenemen, zowel in het aantal VM's als in de opslagcapaciteit. Elk opslagplatform heeft een knelpunt (zelfs all-flash-arrays), wat ons leidt naar hoe dit VSAN-cluster met vier knooppunten zich opstapelt. Momenteel hebben we slechts één opslagplatform gehad met 12 en 16 Sysbench VM's, wat een all-flash array was met een adviesprijs van $ 575,000. Toekomstige tests van dit VSAN-cluster zullen echter all-flash-configuraties omvatten om te proberen vergelijkbare prestatiedoelstellingen te bereiken.

VMware Virtual SAN Review: overzicht en configuratie
VMware Virtual SAN Review: VMmark-prestaties
VMware Virtual SAN Review: Sysbench OLTP-prestaties
VMware Virtual SAN Review: SQL Server-prestaties
VMware Virtual SAN Review: geschaalde Sysbench OLTP-prestaties
VMware Virtual SAN Review: HCIbench synthetische prestaties

VMware VSAN-productpagina

Bespreek deze recensie

Meld u aan voor de StorageReview-nieuwsbrief