Home Entreprise Test du X-IO Technologies ISE 860 G3 : partie 1

Test du X-IO Technologies ISE 860 G3 : partie 1

X-IO s'est fait un nom dans le stockage SAN d'entreprise en trouvant un moyen de garantir que les disques durs et, dans le cas des configurations hybrides, les SSD, n'aient jamais besoin d'être entretenus dans la fenêtre garantie de cinq ans. Pour aider à atteindre cet objectif, X-IO utilise deux DataPacs qui sont insérés et verrouillés dans le châssis entièrement redondant, offrant un style de stockage "configurez-le et oubliez-le". En mars de cette année, X-IO s'est ajouté à la famille des disques durs et des baies hybrides, avec une nouvelle série de configurations entièrement flash et une architecture de troisième génération mise à jour (G3). Le Série ISE 800 G3 de toutes les baies flash comprend trois modèles allant de 6.4 To à 51.2 To de capacité brute. Chacun apporte avec lui la promesse de réduire considérablement la fréquence des appels de service, ainsi que des performances allant jusqu'à 400,000 5 IOPS, une bande passante de XNUMX Go/s et l'un des moteurs QoS les plus robustes. 


X-IO s'est fait un nom dans le stockage SAN d'entreprise en trouvant un moyen de garantir que les disques durs et, dans le cas des configurations hybrides, les SSD, n'aient jamais besoin d'être entretenus dans la fenêtre garantie de cinq ans. Pour aider à atteindre cet objectif, X-IO utilise deux DataPacs qui sont insérés et verrouillés dans le châssis entièrement redondant, offrant un style de stockage "configurez-le et oubliez-le". En mars de cette année, X-IO s'est ajouté à la famille des disques durs et des baies hybrides, avec une nouvelle série de configurations entièrement flash et une architecture de troisième génération mise à jour (G3). Le Série ISE 800 G3 de toutes les baies flash comprend trois modèles allant de 6.4 To à 51.2 To de capacité brute. Chacun apporte avec lui la promesse de réduire considérablement la fréquence des appels de service, ainsi que des performances allant jusqu'à 400,000 5 IOPS, une bande passante de XNUMX Go/s et l'un des moteurs QoS les plus robustes. 

X-IO existe depuis assez longtemps à ce stade pour que de nombreux clients atteignent la fenêtre de garantie de cinq ans, validant, au moins dans une certaine mesure, le message clé de la simplicité de gestion. Avec les configurations XNUMX % flash, les défis sont cependant un peu différents. X-IO a atténué les préoccupations concernant l'endurance en introduisant le concept de nivellement de l'usure au niveau de la baie. Cela gère essentiellement la santé de chaque SSD au niveau du système, garantissant que les disques sont écrits de manière relativement égale. L'utilisateur final n'a pas à se soucier des disques individuels, car le système gère l'usure. En fait, X-IO n'expose même pas les disques via leur interface graphique ; les utilisateurs gèrent simplement les volumes extraits du pool disponible.

X-IO est l'un des rares dans l'espace des baies 800 % Flash à offrir la QoS. Dans le gestionnaire ISE, les administrateurs peuvent spécifier les capacités IOPS minimales, maximales et en rafale pour chaque LUN. Le processus se fait en quelques clics et les règles sont appliquées automatiquement. Cela permet aux volumes critiques pour l'entreprise de bénéficier de performances garanties sans avoir à se soucier d'un voisin bruyant. De plus, la série ISE XNUMX prend en charge le provisionnement léger et l'intégration avec VMware VASA, vSphere Web Client, vCOPs et OpenStack via le pilote Cinder.

Cet examen se concentre sur l'ISE 860 G3, avec un sous-ensemble limité de données également collectées à l'aide des 820 DataPacs dans le même châssis. Les baies 800 % Flash ISE 3 Series G124,900 sont désormais disponibles, avec un prix catalogue de 820 320,500 $ pour l'ISE 850, 575,000 860 $ pour l'ISE XNUMX et XNUMX XNUMX $ pour l'ISE XNUMX. 

Spécifications de la série ISE 800 G3 de X-IO Technologies

  • Capacités
    • ISE820 G3
      • Avant RAID : 6.4 To (20 disques SSD de 200 Go par DataPac)
      • Capacité RAID 10 : 2.7 To
      • Capacité RAID 5 : 4.3 To
    • ISE 850 G3 (10 disques SSD de 1.6 To par DataPac)
      • Avant RAID : 25.6 To
      • Capacité RAID 10 : 11.4 To
      • Capacité RAID 5 : 18.3 To
    • ISE 860 G3 (20 disques SSD de 1.6 To par DataPac)
      • Avant RAID : 51.2 To
      • Capacité RAID 10 : 22.9 To
      • Capacité RAID 5 : 36.6 To
  • 2.2 GHz, processeur Intel 6 cœurs, 16 Go de DRAM par contrôleur
  • Performances à pleine capacité
    • Jusqu'à 400,000 IOPS
    • Jusqu'à 5 Go/s de bande passante
    • Les algorithmes de mise en cache intelligents ISE optimiseront les tailles d'E/S entre 512 B et 1 Mo
  • Connectivité hôte
    • Fibre Channel 8 Go - 8 ports SFP (prend en charge les connexions SAN et DAS)
    • Port de gestion 1GbE avec Wake-on-LAN
  • Fonctionnalités
    • Mise en miroir synchrone active-active
    • Approvisionnement fin
    • QoS
    • API des services Web ReST
  • Puissance
    • 600 W typique, 700 W max
    • Tension 100-240 VCA, 47-63 Hz
    • Courant 6.6 A à 110 V, 3.6 A à 208 V
    • Dissipation thermique (max) 2400 BTU/h
  • Statistiques physiques
    • 5.2" (13.2 cm) Hauteur x 17.5" (44.45 cm) Largeur x 28.5" (72.8 cm) Profondeur
    • 72 livres (32.9 kg) sans DataPacs

Conception et construction de X-IO Technologies ISE 860 G3

Comme les versions précédentes de l'ISE, la conception est mise en évidence par les deux DataPacs à chargement frontal qui sont insérés puis verrouillés en place lorsque l'unité est sous tension. Chacun des modèles de la série 800 utilise le même châssis et les mêmes contrôleurs ; le différenciateur est simplement la capacité des DataPacs et des SSD qui y résident. L'avant de l'unité comporte également deux packs de supercondensateurs conçus pour durer suffisamment longtemps pour vider les écritures en transit vers un stockage non volatile en cas de panne de courant inattendue. Lorsque le courant revient, ces données sont écrites dans le pool de stockage principal. Le fond de panier SAS du 860 a été amélioré pour mieux tirer parti des capacités d'E/S de la configuration XNUMX % Flash. 

L'arrière de l'unité comporte des alimentations redondantes ainsi que les deux contrôleurs. Chaque contrôleur est alimenté par un processeur Intel 2.2 GHz à 6 cœurs avec 16 Go de DRAM intégrée. En plus des quatre ports Fibre Channel 8 Go sur chaque contrôleur, il existe également un port de gestion 1 GbE, un port console, deux emplacements USB et un port SAS. 

X-IO Technologies ISE 860 G3 Installation et configuration

La suite ISE Manager s'intègre à Citrix, Linux, Microsoft et VMware pour créer un environnement qui simplifie considérablement l'administration de l'ISE. En fait, X-IO aime dire que vous n'avez pas besoin d'être un administrateur de stockage qualifié pour déployer et gérer un ISE. Nous avons intégré ISE Manager Suite à notre VMware vCenter. Sur le côté gauche, les administrateurs peuvent choisir entre les groupes SAN, l'adaptateur de performances et la collecte des journaux. Dans les groupes SAN, il existe plusieurs autres onglets, notamment Server View, Storage View, Physical View, ActiveWatch View, Performance View, Logs View, CloudStack et X-Volume.

Grâce à la vue physique, les utilisateurs peuvent vérifier plusieurs propriétés générales de la baie. Courir sur le côté gauche est une lecture de la santé du système. Les utilisateurs peuvent vérifier sur les DataPacs. Les aspects qui peuvent être vérifiés incluent s'ils sont opérationnels ou non, dans quelle position ils se trouvent, leur type (flash dans ce cas) et à quel pool ils appartiennent. 

La vue physique permet également de s'enregistrer sur le(s) pool(s) de stockage. Affichage de détails tels que la quantité de mémoire flash disponible, le DataPac présent dans le pool (les deux dans ce cas) et la quantité de capacité libre et totale.

Dans Storage View, les utilisateurs peuvent voir les différents pools de stockage, leur taille, la configuration RAID, l'endroit où le pool est épinglé et les performances maximales et minimales de configuration. 

Performance View permet aux administrateurs de suivre les performances en temps réel. Les performances peuvent être suivies facilement. Par exemple, tout au long des mesures à partir desquelles la charge de travail SQL commence, vous pouvez voir ci-dessous. Au fur et à mesure que les données se déplacent dans la DRAM hôte, les lectures diminuent, bien que de grandes rafales d'écriture soient visibles pour chaque écriture de journal.

Au début du test Sysbench virtualisé avec 16 machines virtuelles martelant la baie, vous pouvez voir le mélange lourd de lecture et d'écriture frapper les deux contrôleurs.

Une fois que le test 16VM Sysbench s'est stabilisé, vous pouvez voir la baie atteindre un état stable.

Analyse des performances des applications

L' OLTP Sysbench benchmark s'exécute sur Percona MySQL en exploitant le moteur de stockage InnoDB fonctionnant dans une installation CentOS. Pour aligner nos tests de SAN traditionnel avec les nouveaux équipements hyperconvergés, nous avons déplacé bon nombre de nos références vers un modèle distribué plus large. La principale différence est qu'au lieu d'exécuter un seul benchmark sur un serveur bare metal, nous exécutons maintenant plusieurs instances de ce benchmark dans un environnement virtualisé. À cette fin, nous avons déployé 1, 4, 8, 12 et 16 machines virtuelles Sysbench sur le X-IO ISE 860, 1 à 4 par nœud, et mesuré les performances totales observées sur le cluster, toutes fonctionnant simultanément. Ce test a été conçu pour montrer dans quelle mesure une baie se gère sous des charges de travail normales à extrêmes. Au plus fort du test, nous chargeons entièrement les quatre hôtes ESXi sur lesquels résident les machines virtuelles, en analysant l'utilisation de la DRAM de chaque hôte.

Grappe à 730 nœuds Virtualized Sysbench Dell PowerEdge R4

  • Huit processeurs Intel E5-2690 v3 pour 249 GHz en cluster (deux par nœud, 2.6 GHz, 12 cœurs, 30 Mo de cache) 
  • 1 To de RAM (256 Go par nœud, 16 Go x 16 DDR4, 128 Go par processeur)
  • Démarrage de la carte SD (Lexar 16 Go)
  • 4 x adaptateur Mellanox ConnectX-3 InfiniBand (vSwitch pour vMotion et réseau VM)
  • 4 x HBA FC double port Emulex 16 Go
  • 4 x Carte réseau Emulex 10GbE à deux ports
  • VMware ESXi vSphere 6.0/Enterprise Plus 8-CPU

Chaque machine virtuelle Sysbench est configurée avec trois vDisks, un pour le démarrage (~ 92 Go), un avec la base de données pré-construite (~ 447 Go) et le troisième pour la base de données que nous allons tester (400 Go). Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI.

Notre test Sysbench mesure le TPS moyen (transactions par seconde), la latence moyenne, ainsi que la latence moyenne au 99e centile à une charge maximale de 32 threads.

En regardant les transactions moyennes par seconde, le XIO ISE 860 a affiché 1,762 4 TPS lors de l'utilisation d'une machine virtuelle. Lors de l'augmentation de la configuration à 4,424 machines virtuelles, nous avons constaté une énorme amélioration du TPS à 150 4, soit une augmentation d'environ 8 %. Nous avons également constaté une augmentation des performances lors du passage de 38 VM à 8 VM (12 %) ainsi que de 9 VM à 16 VM (7.4 %). Cependant, en passant à 16 VM, nous avons constaté une légère diminution du TPS de 860 %. Même si les performances globales ont chuté à XNUMX machines virtuelles, le X-IO ISE XNUMX s'est avéré être une centrale absolue pour maintenir ce niveau de performances sous une charge incroyable.

En termes de latence moyenne, il est évident que plus il y a de machines virtuelles ajoutées au XIO ISE 860, plus la latence enregistrée est élevée. Lorsque nous avons changé la configuration 860 VM (1 ms) de l'ISE 18 en 4 VM (29 ms), la latence a augmenté de 61 %. De 4 VM à 8 VM, nous avons constaté une augmentation de 34.5% alors que nous avons enregistré une augmentation de 38.5% lors du passage de 8 VM à 12 VM. Enfin, en utilisant 16 VM, nous avons mesuré 48% de latence. En revenant à notre graphique TPS ci-dessus, notez que lors de l'utilisation de 12 VM, il offrait les performances les plus élevées, tandis que 16 VM ont commencé à diminuer le TPS ainsi qu'à augmenter encore la latence.

En ce qui concerne notre pire scénario de latence MySQL (latence au 99e centile), le XIO SE 860 n'a vu qu'une légère augmentation de la latence passant de 1 VM à 4 VM, puis de 4 VM à 8 VM. Lors de l'ajout de 12 VM, cependant, nous avons constaté une augmentation significative de 113 % de la latence tout en enregistrant une augmentation encore plus importante lors du passage de 12 VM à 16 VM (136 %).

StorageReview's Protocole de test OLTP Microsoft SQL Server utilise la version actuelle du Transaction Processing Performance Council's Benchmark C (TPC-C), une référence de traitement des transactions en ligne qui simule les activités trouvées dans des environnements d'application complexes. Le benchmark TPC-C est plus proche que les benchmarks de performances synthétiques pour évaluer les forces de performance et les goulots d'étranglement de l'infrastructure de stockage dans les environnements de base de données.

Ce test utilise SQL Server 2014 exécuté sur des machines virtuelles invitées Windows Server 2012 R2, souligné par Dell Benchmark Factory for Databases. Alors que notre utilisation traditionnelle de cette référence a été de tester de grandes bases de données à l'échelle 3,000 1,500 sur un stockage local ou partagé, dans cette itération, nous nous concentrons sur la répartition uniforme de quatre bases de données à l'échelle 860 4 sur notre X-IO ISE XNUMX pour mieux illustrer les performances globales à l'intérieur. un cluster VMware à XNUMX nœuds. 

Équipement LoadGen d'usine de référence SQL Server OLTP de deuxième génération

  • Hôtes de client virtuel Dell PowerEdge R730 VMware ESXi vSphere (2)
    • Quatre processeurs Intel E5-2690 v3 pour 124 GHz en cluster (deux par nœud, 2.6 GHz, 12 cœurs, 30 Mo de cache) 
    • 512 Go de RAM (256 Go par nœud, 16 Go x 16 DDR4, 128 Go par processeur)
    • Démarrage de la carte SD (Lexar 16 Go)
    • 2 x adaptateur Mellanox ConnectX-3 InfiniBand (vSwitch pour vMotion et réseau VM)
    • 2 x HBA FC double port Emulex 16 Go
    • 2 x Carte réseau Emulex 10GbE à deux ports
    • VMware ESXi vSphere 6.0/Enterprise Plus 4-CPU
  • Cluster à 730 nœuds SQL virtualisé Dell PowerEdge R4

    • Huit processeurs Intel E5-2690 v3 pour 249 GHz en cluster (deux par nœud, 2.6 GHz, 12 cœurs, 30 Mo de cache) 
    • 1 To de RAM (256 Go par nœud, 16 Go x 16 DDR4, 128 Go par processeur)
    • Démarrage de la carte SD (Lexar 16 Go)
    • 4 x adaptateur Mellanox ConnectX-3 InfiniBand (vSwitch pour vMotion et réseau VM)
    • 4 x HBA FC double port Emulex 16 Go
    • 4 x Carte réseau Emulex 10GbE à deux ports
    • VMware ESXi vSphere 6.0/Enterprise Plus 8-CPU

Chaque machine virtuelle SQL Server est configurée avec deux vDisks, un de 100 Go pour le démarrage et un de 500 Go pour la base de données et les fichiers journaux. Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI.

Le X-IO ISE 860 référencé dans le test SQL Server était certainement bien qualifié pour gérer 15,000 860 utilisateurs virtuels, car le XIO ISE 12,564.9 affichait une moyenne globale de XNUMX XNUMX TPS.

En examinant la latence moyenne avec la même charge de travail d'utilisateurs virtuels, le X-IO ISE 860 offrait une latence moyenne globale de 13 ms, avec un écart de 12 à 14 ms entre les 4 machines virtuelles. C'est un autre domaine où la cohérence de l'ISE 860 entre les volumes et sa réactivité à faible latence l'ont aidé à atteindre des chiffres de premier plan.

Analyse synthétique de la charge de travail d'entreprise

Avant de lancer chacune des repères synthétiques fio, notre laboratoire préconditionne le système dans un état stable sous une charge importante de 16 threads avec une file d'attente exceptionnelle de 16 par thread. Ensuite, le stockage est testé à des intervalles définis avec plusieurs profils de profondeur de thread/file d'attente pour afficher les performances en cas d'utilisation légère et intensive.

  • Tests de préconditionnement et d'état stable primaire :
  • Débit (lecture + écriture IOPS agrégé)
  • Latence moyenne (latence de lecture + écriture moyennée ensemble)
  • Latence maximale (latence maximale de lecture ou d'écriture)
  • Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)

Cette analyse synthétique intègre deux profils largement utilisés dans les cahiers des charges et benchmarks des constructeurs :

  • 4k – 100 % lecture et 100 % écriture
  • 8k – 70 % lecture/30 % écriture

LoadGen FIO de troisième génération

  • HP ProLiant DL380 Gen9
    • Deux processeurs Intel E5-2667 v3 (3.2 GHz, 8 cœurs, 20 Mo de cache) 
    • 256 Go de RAM (16 Go x 16 DDR4, 128 Go par processeur)
    • Windows Server 2012 R2
    • SSD de démarrage de 400 Go
    • 2 x HBA FC double port Emulex 16 Go
  • Commutateur Brocade 6510 48 ports 16 Go

Notre premier benchmark mesure les performances des transferts 4k aléatoires composés d'une activité d'écriture à 100 % et de lecture à 100 %. En débit, le X-IO ISE 860 a enregistré 286,694 117,131 IOPS en lecture et 5 1 en écriture en utilisant une configuration RAID281,253. En RAID174,572, il mesurait XNUMX XNUMX IOPS en lecture avec de meilleures écritures à XNUMX XNUMX IOPS.

Le X-IO ISE 860 a connu une latence de lecture moyenne de seulement 0.89 ms et une latence d'écriture de 2.18 ms en RAID5 tandis que RAID1 affichait 0.91 ms de lecture et affichait à nouveau une latence d'écriture supérieure avec 1.46 ms.

Lors du passage à nos tests de latence maximale, le X-IO ISE 860 en RAID1 a affiché 22.7 ms en lecture et 17.2 ms en écriture tandis que la configuration RAID5 mesurait 24.1 ms en lecture et 27.0 ms en écriture.  

 

Dans notre test d'écart-type, la configuration RAID1 a poursuivi ses excellents résultats, avec seulement 0.25 ms de lecture et 1.06 ms d'écriture. Bien que la configuration RAID5 ait montré des lectures similaires, elle avait une latence en écriture beaucoup plus élevée (1.82 ms).

En passant à la charge de travail aléatoire 8k 70% en lecture et 30% en écriture, les deux configurations X-IO ISE 860 affichent des résultats pratiquement identiques dans nos Threads. La configuration RAID5 n'a commencé à s'estomper qu'à 16T/8Q où elle s'est retrouvée avec environ 185,000 1 IOPS. RAID230,000 a montré un terminal d'environ XNUMX XNUMX IOPS.

L'examen de la latence moyenne racontait une histoire similaire, car RAID1 et RAID5 ont montré des résultats similaires une fois de plus, pour se séparer vers 8T16Q. Dans les profondeurs du terminal, RAID5 a montré environ 1.4 ms de latence moyenne, tandis que RAID1 mesurait 1.2 ms.

Les résultats étaient beaucoup moins similaires en ce qui concerne les performances de latence maximale. Ici, RAID1 a commencé à 16 ms au 2T2Q tout en atteignant 32 ms dans le terminal. Le X-IO ISE 860 en RAID5 mesurait 18 ms à 2T2Q et 30 ms à 16T16Q.

Comme indiqué ci-dessous, nos résultats d'écart type étaient très similaires à nos graphiques de latence moyenne. Les deux configurations RAID ont commencé à 0.1 ms tout en se séparant progressivement par la marque 4T4Q. Dans les threads terminaux, la configuration RAID5 a atteint 0.73 ms tandis que RAID1 a atteint 0.51 ms.

Notre prochaine charge de travail passe à un test séquentiel de petits blocs 8K. Dans ce scénario, l'ISE 860 en RAID5 avait une petite avance en termes de performances de lecture et d'écriture, mesurant 434,562 231,022 IOPS en lecture et 1 431,200 IOPS en écriture, par rapport à RAID229,683 mesurant 860 XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture. En termes de potentiel d'E/S de pointe, l'ISE XNUMX n'a pas déçu.

Notre dernière charge de travail est un test séquentiel de gros blocs de 128 Ko. Dans ce scénario, les deux configurations RAID avaient des résultats similaires : RAID5 affichait 4,513 1,767 Mo de lecture et 1 4,503 Mo/s d'écriture, tandis que RAID1,913 affichait respectivement 4.5 XNUMX Mo/s et XNUMX XNUMX Mo/s de lecture et d'écriture. Bien que les performances séquentielles n'aient pas un rôle énorme dans un monde virtualisé lourd où vous finissez par voir un trafic hautement aléatoire, il était toujours agréable de voir que la baie avait du muscle pour pousser jusqu'à XNUMX Go/s. Les performances d'écriture séquentielle de grands blocs étaient un peu faibles, mais compte tenu de leurs performances lors de nos tests d'application, cela n'aura pas beaucoup d'impact dans des conditions réelles.

Partie 1 Réflexions finales

Dans la partie 2 de l'examen, nous examinerons plusieurs autres domaines de performance. D'après ce que nous avons vu jusqu'à présent, il y a de nombreuses raisons d'être optimiste avec le reste des tests, qui incluront les goûts VMmark, DataFusion dans la base de données en mémoire et les tests de base de données OpenLDAP. Malheureusement, nous n'avons pas grand-chose à comparer directement avec l'ISE 860. La méthodologie de test Gen2 et le backbone de laboratoire (serveurs Dell) que nous avons déployés pour les tests ne font que montrer les fruits du succès, l'ISE 860 étant le premier SAN à faire l'objet d'un examen. Même ainsi, en examinant des résultats similaires et en en extrapolant certains, nous savons que la plate-forme XIO ISE est prête à jouer sur la scène principale avec d'autres poids lourds entièrement flash, en concurrence à un niveau très élevé pour les charges de travail critiques de l'entreprise. La partie 2 en révélera encore plus alors que nous poussons à nouveau le système à ses limites en exerçant bien plus de 20 tuiles dans VMmark. Restez à l'écoute pour le prochain épisode.

À venir: Test du X-IO Technologies ISE 860 G3 : partie 2

Page produit de la série ISE 800 G3

Discutez de cet avis

Inscrivez-vous à la newsletter StorageReview