Nous en avons parlé et t'a taquiné avec ça, et maintenant nous livrons enfin le VMware vSAN avec Intel Optane Review. Cela marquera la troisième révision majeure de vSAN commençant par une examen en plusieurs parties d'un vSAN hybride 6.0 suivi d'un examen 6.2 % flash de vSAN XNUMX. Au lieu de tirer parti de notre cluster Dell PowerEdge R730xd, nous utilisons le serveur 2029U-TN24R4T+ 2U à 24 baies de Supermicro exécutant vSAN 6.7. Pour le stockage, nous utilisons une configuration entièrement NVMe avec des SSD Intel Optane P4800X (375 Go) pour le niveau d'écriture ainsi que des SSD Intel P4500 (2 To) pour le niveau de capacité.
Nous en avons parlé et t'a taquiné avec ça, et maintenant nous livrons enfin le VMware vSAN avec Intel Optane Review. Cela marquera la troisième révision majeure de vSAN commençant par une examen en plusieurs parties d'un vSAN hybride 6.0 suivi d'un examen 6.2 % flash de vSAN XNUMX. Au lieu de tirer parti de notre cluster Dell PowerEdge R730xd, nous utilisons le serveur 2029U-TN24R4T+ 2U à 24 baies de Supermicro exécutant vSAN 6.7. Pour le stockage, nous utilisons une configuration entièrement NVMe avec des SSD Intel Optane P4800X (375 Go) pour le niveau d'écriture ainsi que des SSD Intel P4500 (2 To) pour le niveau de capacité.
Pour ceux qui ne sont pas familiers avec vSAN, c'est l'infrastructure hyperconvergée de VMware optimisée pour vSphere qui penche vers le stockage. En d'autres termes, vSAN est une étape sur les blocs de construction du centre de données défini par logiciel qui vise à simplifier le stockage et la gestion du stockage tout en offrant de meilleures performances. vSAN est généralement vendu via un programme de certification connu sous le nom de VMware vSAN ReadyNodes qui est une combinaison de matériel certifié associé à un logiciel VMware. La plupart des principaux fournisseurs de serveurs proposent des configurations ReadyNode et certains proposent également vSAN en tant qu'appliance.
Les solutions Select d'Intel sont similaires à l'idée ReadyNode. Les solutions Intel Select sont des piles matérielles et logicielles vérifiées qui respectent les exigences définies par Intel. Les solutions mises sur le marché par les principaux fournisseurs de serveurs doivent être capables de reproduire ou de dépasser les performances de référence définies par Intel et elles doivent disposer de guides de déploiement détaillés pour les clients. La configuration que nous utilisons pour cet examen entre dans cette catégorie, en particulier il s'agit d'une solution Intel Select pour VMware vSAN. Comme son nom l'indique, la solution est spécialement conçue pour les environnements VMware.
La solution Intel Select pour VMware vSAN est disponible en deux configurations : une « Base » et une « Plus ». Notre configuration se situe quelque part au milieu de ces configurations ; il s'agit essentiellement d'une configuration de base avec des processeurs mis à niveau. Avec les SSD Optane pour le niveau d'écriture, nos systèmes sont conçus pour répondre aux exigences de latence des applications critiques pour l'entreprise.
Spécifications Supermicro 2029U-TN24R4T+ :
- Serveurs Supermicro 2029U-TN24R4T+ (x4)
- Processeur : 2 processeurs Intel Xeon Gold 6152, 2.10 GHz, 22 cœurs
- Mémoire : 384 Go de RAM (12 x 32 Go 2,666 4 MHz DDRXNUMX DIMM)
- Groupes de disques vSAN, 2 x par nœud :
- Niveau de cache vSAN : 2 disques SSD NVMe série Intel Optane DC P375X de 4800 Go
- vSAN Niveau de capacité : 4 disques SSD NVMe Intel DC série P2 de 4500 To
- Mise en réseau:
- Adaptateur réseau convergé Ethernet Intel X710 10/40 GbE (lien dédié pour vSAN, vMotion/trafic VM/gestion divisé sur son propre VLAN).
- Performance
- 4 Ko aléatoire, profondeur de file d'attente 16, R/W : jusqu'à 550/500 XNUMX IOPS
- 4 Ko aléatoire, profondeur de file d'attente 16, mixte 70/30 R/W : jusqu'à 500 XNUMX IOPS
- DWPD : 30
- Performance
- Lecture séquentielle : 3200 XNUMX Mo/s
- Écriture séquentielle: 1050MB / s
- Lecture 4K aléatoire : 490,000 XNUMX IOPS
- Écriture 4K aléatoire : 38,000 XNUMX IOPS
- DWPD 0.75 aléatoire ; 4.62 séquentiel
Analyse de la charge de travail des applications
Les premiers repères consistent en Performances MySQL OLTP via SysBench et Performances OLTP de Microsoft SQL Server avec une charge de travail TPC-C simulée.
Chaque machine virtuelle SQL Server est configurée avec deux vDisks, un de 100 Go pour le démarrage et un de 500 Go pour la base de données et les fichiers journaux. Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI. Ces tests sont conçus pour surveiller les performances d'une application sensible à la latence sur le cluster avec une charge de calcul et de stockage modérée, mais pas écrasante.
Configuration des tests SQL Server (par machine virtuelle)
- Windows Server 2012 R2
- Empreinte de stockage : 600 Go alloués, 500 Go utilisés
- SQL Server 2014
- Taille de la base de données : échelle 1,500 XNUMX
- Charge de client virtuel : 15,000 XNUMX
- Mémoire tampon : 48 Go
- Durée du test : 3 heures
- 2.5 heures de préconditionnement
- Période d'échantillonnage de 30 minutes
Dans le test SQL Server TPC-C sur les plates-formes hyperconvergées, nous examinons l'équilibre de la charge de travail sur le cluster en mode hybride, en mode 12,605 % flash (AF) et en mode de réduction des données 3,148.56 % flash (AF DR). Le mode AF pour Optane, sans surprise, a légèrement mieux fonctionné avec un score global de 3,152.66 12,472 TPS avec des machines virtuelles individuelles comprises entre 12,604 3,148.7 TPS et 3,153.5 11,969 TPS. Cet ensemble est légèrement meilleur que la version non-Optane de vSAN qui avait un score global de XNUMX XNUMX TPS. Avec DR activé, nous avons vu l'Optane atteindre un score global de XNUMX XNUMX TPS (juste un TPS de moins qu'avec DR désactivé) avec des machines virtuelles individuelles comprises entre XNUMX XNUMX TPS et XNUMX XNUMX TPS. C'était un saut assez important par rapport à la version non Optane avec le score global de DR de XNUMX XNUMX TPS. Il convient de noter ici que les processeurs Gold sont probablement un facteur limitant et qu'avec les processeurs Platinum, il y a plus d'avantages à avoir.
Pour le test SQL Server TPC-C, la variable à laquelle nous accordons le plus d'attention est la latence moyenne. De petits écarts dans les performances transactionnelles ne montreront pas tout. Dans notre test de latence moyenne, l'AF Optane avait un score global de seulement 16.5 ms avec des machines virtuelles individuelles allant de 14 ms à 21 ms. Avec DR sur la version Optane, le temps de réponse global n'est passé qu'à 17 ms avec une latence de 13 ms à 21 ms pour les machines virtuelles individuelles. Il s'agit d'une grande amélioration par rapport au vSAN non Optane avec un score global de 52.5 ms sans DR et de 261 ms avec DR activé.
Performances de Sybench
Chaque machine virtuelle Sysbench est configurée avec trois vDisks : un pour le démarrage (~92 Go), un avec la base de données prédéfinie (~447 Go) et le troisième pour la base de données testée (400 Go). Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI.
Configuration des tests Sysbench (par machine virtuelle)
- CentOS 6.3 64 bits
- Empreinte de stockage : 1 To, 800 Go utilisés
- Percona XtraDB 5.5.30-rel30.1
- Tableaux de base de données : 100
- Taille de la base de données : 10,000,000 XNUMX XNUMX
- Threads de base de données : 32
- Mémoire tampon : 24 Go
- Durée du test : 12 heures
- 6 heures de préconditionnement 32 fils
- 1 heure 32 fils
- 1 heure 16 fils
- 1 heure 8 fils
- 1 heure 4 fils
- 1 heure 2 fils
Avec l'OLTP Sysbench, nous examinons la configuration 8VM pour chacun. L'Optane AF avait un score global de 10,699 4,273 TPS, soit plus du double des 8,668 3,625 TPS de la version non Optane. Avec DR activé, l'Optane a atteint XNUMX XNUMX TPS par rapport au non-Optane avec les XNUMX XNUMX TPS de DR.
Pour la latence moyenne de Sysbench, le vSAN basé sur Optane était vraiment capable de briller avec des scores cumulés de 23.95 ms et 29.62 ms avec DR activé. Ceci est comparé aux 60.05 ms et 71.05 ms du non-Optane avec DR activé. Dans les deux cas, l'Optane avait moins de la moitié de la latence.
La latence moyenne au 99e centile a de nouveau montré que le vSAN basé sur Optane était considérablement plus rapide avec des scores cumulés de 42.9 ms et 55.63 ms avec DR activé par rapport aux 126.02 ms sans Optane et avec DR activé, 212.42 ms.
Analyse de la charge de travail VDBench
Lorsqu'il s'agit de comparer les baies de stockage, les tests d'application sont les meilleurs et les tests synthétiques viennent en deuxième position. Bien qu'ils ne soient pas une représentation parfaite des charges de travail réelles, les tests synthétiques aident à référencer les périphériques de stockage avec un facteur de répétabilité qui facilite la comparaison de pommes à pommes entre des solutions concurrentes. Ces charges de travail offrent une gamme de profils de test différents allant des tests « aux quatre coins », des tests de taille de transfert de base de données communs, ainsi que des captures de traces à partir de différents environnements VDI. Tous ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels.
Profils:
- Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
- Écriture aléatoire 4K : 100 % d'écriture, 64 threads, 0-120 % de vitesse
- Lecture séquentielle 64K : 100 % de lecture, 16 threads, 0-120 % d'iorate
- Écriture séquentielle 64K : 100 % d'écriture, 8 threads, 0-120 % d'iorate
- Base de données synthétique : SQL et Oracle
- Traces de clone complet et de clone lié VDI
Pour le test VDBench, nous n'examinerons que la version Optane Supermicro de vSAN et nous envisagerons d'avoir DR activé (appelé DR à partir de maintenant) ou désactivé (appelé Raw à partir de maintenant). Lors de notre premier test de lecture aléatoire maximale 4K, le Raw avait une latence inférieure à la milliseconde jusqu'à environ 440K IOPS et a culminé à 521,599 4.65 IOPS avec une latence de 1 ms. Le DR a commencé un peu moins de 406,322 ms avant de dépasser et a culminé à 7.32 XNUMX IOPS avec une latence de XNUMX ms.
Avec une écriture aléatoire 4K, le Raw a parcouru la ligne de 1 ms mais est resté en dessous jusqu'à environ 150 202,081 IOPS et a culminé à 8.4 114 IOPS avec une latence de 183,947 ms. Le DR a atteint environ 1.43 XNUMX IOPS avec une latence inférieure à la milliseconde et a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms avant de chuter brusquement en termes de performances et de pic de latence.
Ensuite, nous examinons les charges de travail séquentielles 64K. Pour la lecture, le Raw avait des performances de latence inférieures à la milliseconde jusqu'à environ 54 3.5 IOPS ou 85,319 Go/s et culminait à 5.33 4.69 IOPS ou 1 Go/s avec une latence de 73,583 ms. Le DR a commencé au-dessus de 4.6 ms et a culminé à 4.23 XNUMX IOPS ou XNUMX Go/s avec une latence de XNUMX ms.
Pour 64K, le Raw n'a atteint qu'environ 12K IOPS avant de casser 1 ms, atteignant un pic à 40,869 2.55 IOPS ou 5.58 Go/s avec une latence de 7,303 ms. DR avait des performances de latence inférieures à la milliseconde tout au long, mais a culminé à seulement 456 623 IOPS ou XNUMX Mo/s avec une latence de XNUMX μs.
Passant à nos charges de travail SQL, le Raw avait une latence inférieure à la milliseconde jusqu'à environ 330 385,159 IOPS et a culminé à 2.34 1 IOPS avec une latence de 321,504 ms. Le DR est resté au-dessus de 3.02 ms à peu près tout le temps avec un pic de XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Pour SQL 90-10, le Raw a atteint environ 300 1 IOPS avant de casser 363,550 ms et a culminé à 2.52 299,132 IOPS avec une latence de 3.26. Le DR a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Notre test SQL 80-20 a vu le Raw exécuter plus de 277 1 IOPS à moins de 332,949 ms et culminer à 2.79 285,010 IOPS avec une latence de 3.42 ms. Le DR a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Ensuite, nos charges de travail Oracle. Le Raw avait une latence inférieure à la milliseconde jusqu'à environ 262 323,706 IOPS et a culminé à 3.27 211,993 IOPS avec une latence de 2.07 ms. Le DR a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms avant de chuter à nouveau en termes de performances et de pic de latence.
Pour Oracle 90-10, le Raw avait des performances de latence inférieures à la milliseconde jusqu'à environ 315 354,590 IOPS et culminait à 1.67 279,356 IOPS avec une latence de 2.24 ms. Le DR a culminé à XNUMX XNUMX IOPS avec une latence de XNUMX ms.
Le test Oracle 80-20 a vu le Raw tourner sous 1 ms jusqu'à environ 273 322,616 IOPS et culminer à 1.85 263,425 IOPS avec une latence de 2.36 ms. Le DR a pu culminer à XNUMX XNUMX IOPS et une latence de XNUMX ms.
Ensuite, nous sommes passés à notre test de clone VDI, Full et Linked. Pour VDI Full Clone Boot, le Raw avait des performances de latence inférieures à la milliseconde jusqu'à environ 240 293,335 IOPS, atteignant un pic à 3.3 181,527 IOPS et une latence de 5.31 ms. Le DR a culminé à XNUMX XNUMX IOPS et une latence de XNUMX ms avant de chuter.
La connexion initiale au VDI FC a démarré à près de 1 ms et l'a rapidement dépassée pour culminer à 153,513 5.6 IOPS avec une latence de 68 ms avant une légère baisse. Le DR a culminé plus tôt à environ 5.3 XNUMX IOPS et une latence de XNUMX ms avant de chuter en performances et de grimper en latence.
Avec VDI FC Monday Login, le Raw avait une latence inférieure à la milliseconde jusqu'à environ 58 152,660 IOPS et a culminé à 3.14 1.64 IOPS avec une latence de 64,201 ms. Le DR avait une meilleure latence maximale (XNUMX ms), mais n'a culminé qu'à une performance de XNUMX XNUMX IOPS.
Pour VDI LC Boot, le Raw avait une latence inférieure à la milliseconde jusqu'à environ 170 209,676 IOPS et culminait à 2.21 119,036 IOPS avec une latence de 3.99 ms. Avec le DR, il a culminé à XNUMX XNUMX IOPS et une latence de XNUMX ms.
Passant à la connexion initiale VDI LC, le Raw est resté inférieur à 1 ms jusqu'à 29 92,951 IOPS et a culminé à 2.62 64 IOPS avec une latence de 2.3 ms. Pour le DR, il a culminé à un peu moins de XNUMX XNUMX IOPS avec une latence d'environ XNUMX ms avant de chuter.
Enfin, avec un regard sur VDI LC Monday Login, le Raw a atteint environ 35 1 IOPS avant de casser 101,997 ms et de culminer à 4.65 47 IOPS avec une latence de 1.82 ms. Avec DR, le pic était d'environ XNUMX XNUMX IOPS avec une latence de XNUMX ms avant que les performances ne chutent.
Conclusion
La solution de stockage hyperconvergée de VMware se présente sous de nombreuses formes. cette itération particulière utilise quatre serveurs Supermicro 2029U-TN24R4T+ pour le calcul. Pour le stockage, cette version de vSAN exploite à la fois Intel Optane sous la forme de SSD Intel Optane P4800X et le stockage NVME sous la forme de SSD Intel P4500. Cette version particulière fait partie des nouvelles solutions Select d'Intel, en particulier les solutions Intel Select pour VMware vSAN. Il peut être considéré comme un vSAN ReadyNode certifié à la fois par VMware et Intel afin d'atteindre les mesures de performances nécessaires.
En ce qui concerne les performances, dans notre analyse de la charge de travail des applications, nous avons opposé la version Optane de vSAN à notre version 12,605 % flash précédemment testée de vSAN sur des équipements Dell/Toshiba. Pour SQL Sever, la configuration Optane avait des scores presque identiques avec la réduction des données (DR) activée et désactivée, un score global de 12,604 11,969 TPS sans DR et de 16.5 17 TPS avec DR. Cela marque un saut assez important par rapport à la version entièrement flash, non Optane avec DR activé (6.2 10,699 TPS). En ce qui concerne la latence, la version Optane a montré une amélioration drastique avec des scores cumulés de seulement 8,668 ms sans DR et de seulement 24 ms avec DR activé, soit moins de la moitié de la latence de la version SAS all-flash sur vSAN 30. Avec Sysbench, la version Optane de vSAN avait plus de deux fois le TPS de la version 60 % flash avec des scores cumulés de 71 XNUMX TPS Raw et XNUMX XNUMX TPS avec DR activé. Cette tendance se poursuit avec la latence et la latence du scénario le plus défavorable, dans les deux cas étant inférieure à la moitié avec des scores agrégés de XNUMX ms et XNUMX ms avec DR pour la moyenne, et de XNUMX ms et XNUMX ms avec DR pour le pire des cas.
Pour notre VDBench, l'Optane vSAN présentait plusieurs points forts pour les performances brutes, notamment la lecture 4K de 522K IOPS, l'écriture 4K de 202K IOPS, la lecture 64K de 5.33 Go/s et l'écriture 64K de 2.55 Go/s. Avec DR activé, nous avons vu le vSAN atteindre 406K IOPS en lecture 4K, 184K IOPS en écriture (suivi d'une forte baisse), 4.6 Go/s en lecture sur 64K et seulement 456 Mo/s en écriture sur 64K mais avec une latence inférieure à 1 ms. vSAN a continué avec de solides performances dans SQL atteignant 385K IOPS, 364K IOPS en 90-10 et 333K IOPS en 80-20 et le DR atteignant 322K IOPS, 299K IOPS en 90-10 et 285K IOPS en 80-20. Dans Oracle, le Raw a eu des performances assez solides avec 324K IOPS, 355K IOPS en 90-10 et 323K IOPS en 80-20. Le DR était également fort dans Oracle avec des pics de 212 279 IOPS (avant de chuter), 90 10 IOPS en 263-80 et 20 XNUMX IOPS en XNUMX-XNUMX.
L'inclusion des SSD Optane a clairement un impact important sur les performances d'écriture pour vSAN. Cela tient même compte du fait que les disques ne font que 375 Go et que vSAN prend en charge une capacité de 600 Go pour les disques de niveau écriture. Il est donc possible que nous puissions obtenir un peu plus de performances en écriture en ayant des disques plus grands. Il existe également un certain potentiel de hausse pour ces configurations Intel, car des interconnexions plus rapides sont qualifiées et des configurations de RAM et de processeur plus agressives sont utilisées, comme dans les options Plus. Intel propose également des lecteurs plus rapides/meilleurs pour le niveau de lecture ; le P4510 était une amélioration substantielle par rapport au P4500. Le point étant, plutôt que de prendre ces données comme le meilleur qu'Optane puisse faire, ces données consistent davantage à définir la base pour les configurations de serveur de milieu de gamme qui ont beaucoup plus à donner, si l'occasion l'exige. Il est également important de considérer que vSAN est bien placé pour continuer à bénéficier des nouvelles technologies de stockage et de serveur à mesure qu'elles arrivent sur le marché, ce qui est beaucoup plus difficile à réaliser pour les fournisseurs d'appliances traditionnelles.
Cependant, la conclusion est clairement qu'à mesure que vSAN a mûri, VMware a été intelligent pour se placer à la pointe des technologies émergentes telles que les SSD Intel Optane. Cela donne à vSAN un avantage significatif en termes de performances sur le marché HCI. Alors que de nombreuses solutions HCI sont heureuses de répondre aux besoins des cas d'utilisation ROBO qui ont des profils de performances modérés, vSAN continue de rechercher les meilleurs partenaires pour créer des solutions qui sont tout aussi heureuses à la périphérie car elles jettent les bases de ce que les centres de données de nouvelle génération ressembler dans le monde SDDC. Les clusters vSAN basés sur Optane sont extrêmement bien adaptés à ce dernier, offrant la meilleure latence d'écriture possible pour toutes les charges de travail d'application.
Inscrivez-vous à la newsletter StorageReview