In unserer erster Abschnitt der VxRack Node-Überprüfung, haben wir die Bereitstellungsoptionen, eine Übersicht über die primäre Verwaltungsschnittstelle und einen Blick auf die Hardware hinter unseren All-Flash-Performance-Knoten von VCE, der Converged Platforms Division von EMC, behandelt. In diesem Teil der Überprüfung werfen wir einen Blick auf VxRack-Knoten in einer zweischichtigen SAN-Konfiguration und wie sie unter unserer MySQL-Sysbench-Workload funktionieren. Wir haben ScaleIO und die zugrunde liegende Hardware auf eine Kapazität von 99.2 % gebracht, um die Leistung zu bewerten, während die Arbeitslastintensität und der Kapazitätsbedarf zunahmen. Unser Ziel besteht darin, das Leistungspotenzial der Knoten zu messen, wenn es darum geht, in unserer virtualisierten Umgebung eine Hochgeschwindigkeits-Transaktionsleistung, einschließlich Durchsatz und Latenz, über eine immer anspruchsvollere Arbeitslastskala bereitzustellen.
In unserer erster Abschnitt der VxRack Node-Überprüfung, haben wir die Bereitstellungsoptionen, eine Übersicht über die primäre Verwaltungsschnittstelle und einen Blick auf die Hardware hinter unseren All-Flash-Performance-Knoten von VCE, der Converged Platforms Division von EMC, behandelt. In diesem Teil der Überprüfung werfen wir einen Blick auf VxRack-Knoten in einer zweischichtigen SAN-Konfiguration und wie sie unter unserer MySQL-Sysbench-Workload funktionieren. Wir haben ScaleIO und die zugrunde liegende Hardware auf eine Kapazität von 99.2 % gebracht, um die Leistung zu bewerten, während die Arbeitslastintensität und der Kapazitätsbedarf zunahmen. Unser Ziel besteht darin, das Leistungspotenzial der Knoten zu messen, wenn es darum geht, in unserer virtualisierten Umgebung eine Hochgeschwindigkeits-Transaktionsleistung, einschließlich Durchsatz und Latenz, über eine immer anspruchsvollere Arbeitslastskala bereitzustellen.
Spezifikationen des VCE VxRack-Knotens (Performance Compute All Flash PF100).
- Gehäuse – Anzahl der Knoten: 2U-4 Knoten
- Prozessoren pro Knoten: Dual Intel E5-2680 V3, 12c, 2.5 GHz
- Chipsatz: Intel 610
- DDR4-Speicher pro Knoten: 512 GB (16 x 32 GB)
- Eingebettete Netzwerkkarte pro Knoten: Zwei 1-Gbit/s-Ethernet-Ports + 1 10/100-Verwaltungsport
- RAID-Controller pro Knoten: 1x LSI 3008
- SSDs pro Knoten: 4.8 TB (6 x 2.5 Zoll 800 GB eMLC)
- SATADOM pro Knoten: 32 GBSLC
- 10-GbE-Port pro Knoten: 4x 10-Gbit/s-Ports SFP+
- Stromversorgung: Duales 1600-W-Platin-Wechselstromnetzteil
- Router: Cisco Nexus C3164Q-40GE
Dell PowerEdge R730 Virtualisierter MySQL-Cluster mit 4–8 Knoten
- Acht-sechzehn Intel E5-2690 v3-CPUs für 249 GHz im Cluster (zwei pro Knoten, 2.6 GHz, 12 Kerne, 30 MB Cache)
- 1–2 TB RAM (256 GB pro Knoten, 16 GB x 16 DDR4, 128 GB pro CPU)
- SD-Karten-Boot (Lexar 16 GB)
- 4–8 x Mellanox ConnectX-3 InfiniBand-Adapter (vSwitch für vMotion und VM-Netzwerk)
- 4-8 x Emulex 16 GB Dual-Port-FC-HBA
- 4-8 x Emulex 10GbE Dual-Port-NIC
- VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU
- 10GbE-Switching-Hardware
- Front-End-Ports: Mellanox SX1036 10/40GbE Switch
- Back-End-Ports: Cisco Nexus 3164 10/40GbE-Switch
Sysbench-Leistung
. Systembankben Die VM ist mit drei vDisks konfiguriert, eine für den Start (~92 GB), eine mit der vorgefertigten Datenbank (~447 GB) und die dritte für die zu testende Datenbank (270 GB). In früheren Tests haben wir dem Datenbank-Volume 400 GB zugewiesen (253 GB Datenbankgröße). Um zusätzliche VMs auf den VxRack-Knoten zu packen, haben wir diese Zuweisung jedoch verkleinert, um mehr Platz zu schaffen. Aus Sicht der Systemressourcen haben wir jede VM mit 16 vCPUs und 60 GB DRAM konfiguriert und den LSI Logic SAS SCSI-Controller genutzt. Lastgenerierungssysteme sind Dell R730-Server; Wir reichen in diesem Test von vier bis acht und skalieren die Server pro 4VM-Gruppe.
Sysbench-Testkonfiguration (pro VM)
- CentOS 6.3 64-Bit
- Speicherbedarf: 1 TB, 800 GB genutzt
- Percona XtraDB 5.5.30-rel30.1
- Datenbanktabellen: 100
- Datenbankgröße: 10,000,000
- Datenbankthreads: 32
- RAM-Puffer: 24 GB
- Testdauer: 3 Stunden
- 2 Stunden Vorkonditionierung von 32 Threads
- 1 Stunde 32 Threads
Zu Beginn verzeichneten die VxRack-Knoten mit 4 VMs insgesamt fast 4,000 Transaktionen, was etwas weniger ist als XIO ISE-860 SAN-Speicher ist ebenfalls mit All-Flash konfiguriert und etwa 60 % schneller als eine hybride Nutanix-4-Knoten-Konfiguration. Alle VxRack-Knoten zeigten nahezu die gleiche Leistung und lieferten jeweils etwa 1,000 Transaktionen. Wenn die Arbeitslast größer wird, beginnt sich ScaleIO wirklich zu differenzieren. Bei 8 VMs schließt ScaleIO die Lücke mit XIO ISE 860 und die Leistung steigt auf knapp über 6,400 TPS. Bei 12 VMs liegt es mit 7,488 TPS um einige Hundert vorne. Hier wird es richtig interessant. Wir haben 12–16 VM-Lasten auf anderen Systemen getestet, aber hier flachte die Gesamtleistung im Allgemeinen ab und ließ nach. Bei 16 VMs haben wir die Obergrenze dessen erreicht, wo XIO effektiv liefern kann, aber ScaleIO macht weiter und verzeichnet einen Zuwachs von 15 % auf über 9,500 TPS. Wir haben es auf 20 VMs erhöht, immer noch keine Anzeichen einer Verlangsamung, jetzt misst ScaleIO über 12,000 TPS. Vier weitere VMs wurden dem Mix hinzugefügt, wiederum wie ein gebrochener Rekord stürmt ScaleIO mit über 13,800 TPS bei 24 VMs nach vorne. Beim Sprung auf 28 VMs tuckert ScaleIO ohne Unterbrechung weiter und misst jetzt 15,641 TPS. Nachdem die Kapazitätsgrenzen aufgehoben wurden, erreichte ScaleIO eine Auslastung von 99.2 % mit 32 VMs, die Leistung des Clusters lag bei über 17,300 TPS, als wir schließlich das Handtuch warfen.
Die wichtigsten Erkenntnisse hierbei sind, dass die VxNodes die Leistung bei jedem Schritt steigern und selbst bei voller Auslastung kaum an Leistung verlieren. Viele andere SANs wären aufgrund eines I/O-Engpasses ausgefallen, bevor die Kapazität erschöpft wäre und die Arbeitslast die Kapazitäten der Hardware einholt. Über den unglaublichen Durchsatz hinaus spielt sich eine weitere interessante Geschichte darin ab, wie gut ScaleIO die Latenz der Anwendungs-Workloads aufrechterhält.
Wenn Sie sich ein Speicher-Array ansehen und eine hohe Arbeitslast anstreben, werden Sie im Allgemeinen irgendwann eine Glockenkurve bei der Leistung feststellen. Die Leistung beginnt langsam, erreicht irgendwo in der Mitte ihren Höhepunkt und lässt dann auf Kosten einer schnell zunehmenden Latenz nach. Mit ScaleIO haben wir diesen Punkt nie gefunden, selbst bei einer Kapazitätsauslastung von 99.2 %. Als unsere Arbeitslast im Bereich von 4 bis 8 VMs begann, stieg ScaleIO von 32 auf 39.9 ms durchschnittliche MySQL-Latenz. Im Vergleich zum X-IO ISE 860, der 29 bzw. 39 ms maß, hatte die VxRack-Plattform ein etwas höheres anfängliches Reaktionsprofil. Im 12-32VM-Bereich wendete sich jedoch das Blatt, wo ScaleIO eine unglaublich niedrige und flache MySQL-Latenz lieferte. Der Unterschied zwischen 12VMs und 32VMs betrug knapp 8ms.
ScaleIO verlagert unseren Fokus auf Spitzenlatenzprofile mit der 99.-Perzentil-Latenzansicht und liefert eines der besten Profile, auf die ein Anwendungsingenieur oder Web-Scale-Anbieter jemals hoffen kann. Bei zunehmender Arbeitslastintensität bleibt ScaleIO ruhig und lässt die Spitzenreaktionszeiten der Anwendungen nicht explodieren, selbst bei der höchsten Arbeitslastintensität, die wir ihm auferlegt haben. Für Kunden bedeutet dies, dass die ScaleIO-Plattform auch unter Spitzen- oder ungewöhnlich hohen Auslastungsbedingungen in der Lage ist, einen kühlen Kopf zu bewahren und Inhalte konsistent bereitzustellen. ohne Verzögerung.
Fazit
Als wir unser erstes Leistungssegment zum VxRack-Knoten von EMC mit ScaleIO abschließen, sind wir über das gebotene Leistungsniveau schockiert. ScaleIO hat es geschafft, als eine der wenigen Plattformen in allen Bereichen unseres skalierten MySQL-Tests die Nase vorn zu haben. Erstens war der Durchsatz phänomenal und brach die Rekorde um Längen – selbst bei nahezu voller Auslastung. Zweitens blieb die Anwendungslatenz trotz einer ständig wachsenden Testumgebung nahezu konstant. Drittens ist es ScaleIO auch bei steigender Anwendungslast gelungen, die Spitzenlatenz unter Kontrolle zu halten, was in einer Web-Scale-Umgebung sehr wichtig ist, in der Nachfrageschwankungen dazu führen können, dass andere Anwendungen leiden, wenn die Reaktionszeiten zu hoch werden.
Klar, man kann leicht sagen, dass die ScaleIO-Knoten deshalb so gut abgeschnitten haben, weil sie All-Flash sind. Wie die Zahlen zeigen, bewältigte das System die Arbeitslast bei voller Auslastung problemlos, was nur sehr wenige Flash-Arrays schaffen und gleichzeitig die Latenz unter Kontrolle halten. Erwähnenswert ist auch, dass diese erste Leistungsüberprüfung die Flexibilität von ScaleIO hervorhebt, die wir in Teil 1 festgestellt haben. Es kann als SAN oder hyperkonvergent auf jedem beliebigen Gerät bereitgestellt, als VxRack-Knoten in verschiedenen Varianten oder als verwendet werden die technische Lösung der VCE VxRack System 1000-Serie.
EMC VxRack Node Review: Übersicht
EMC VxRack-Knoten mit ScaleIO: SQL Server-Leistungsüberprüfung (2-schichtig)
EMC VxRack-Knoten mit ScaleIO: Synthetische Leistungsüberprüfung (2-lagig)
EMC VxRack Node Powered By ScaleIO Review: Synthetic Performance Review (HCI)
EMC VxRack-Knoten mit ScaleIO: SQL Server Performance Review (HCI)
EMC VxRack-Knoten mit ScaleIO: VMmark Performance Review (HCI)
Besprechen Sie diese Rezension
Melden Sie sich für den StorageReview-Newsletter an