Le SAS 616iSD 10G fait partie d'une vaste gamme de baies de stockage au niveau des blocs proposée par JetStor. L'iSCSI 616iSD offre jusqu'à 48 To de stockage via 16 baies 3.5″ dans un boîtier 3U. JetStor comprend deux contrôleurs RAID actifs/actifs redondants et quatre ports 10GbE, deux par contrôleur. Chaque contrôleur est alimenté par un processeur de stockage double cœur Intel IOP342 Chevelon 64 bits et comprend des fonctionnalités telles que l'ASIC d'assistance à la parité, le moteur d'assistance iSCSI et le moteur de déchargement TCP (TOE). Si 48 To s'avèrent insuffisants, le 616iSD peut être étendu avec quatre étagères JBOD (SAS716J) pour une capacité maximale de 240 To par baie.
Le SAS 616iSD 10G fait partie d'une vaste gamme de baies de stockage au niveau des blocs proposée par JetStor. L'iSCSI 616iSD offre jusqu'à 48 To de stockage via 16 baies 3.5″ dans un boîtier 3U. JetStor comprend deux contrôleurs RAID actifs/actifs redondants et quatre ports 10GbE, deux par contrôleur. Chaque contrôleur est alimenté par un processeur de stockage double cœur Intel IOP342 Chevelon 64 bits et comprend des fonctionnalités telles que l'ASIC d'assistance à la parité, le moteur d'assistance iSCSI et le moteur de déchargement TCP (TOE). Si 48 To s'avèrent insuffisants, le 616iSD peut être étendu avec quatre étagères JBOD (SAS716J) pour une capacité maximale de 240 To par baie.
De par sa nature, le JetStor SAS 616iSD 10G est conçu pour être simple. Allumez-le, donnez-lui accès à la structure Ethernet et c'est parti. La simplicité de conception de JetStor fonctionne partout, avec des fonctionnalités telles qu'une conception sans câble en interne, qui, bien que probablement jamais vue, offre une plus grande facilité de service en cas de problème. L'unité comprend également deux blocs d'alimentation, des ventilateurs de refroidissement turbo et une garantie de trois ans qui couvre tous les composants avec une assistance par téléphone et par e-mail pendant toute la durée de vie de l'unité.
Spécifications du Jetstor SAS 616iSD 10G
- Ports hôtes : deux, 10 Gigabit Ethernet utilisant le protocole iSCSI, interfaces hôtes SFP+ par contrôleur redondant
- Interface disque : SAS 3Gb/s
- Disques durs offerts : 300 Go (15 k), 450 Go (15 k), 600 Go SAS (15k), 1 To (7.2k), 2 To (7.2k) et 3 To (7.2k)
- Disques : 16 (3.5")/ jusqu'à 160 via deux ports d'extension SAS 3 Gb/s
- Modes RAID pris en charge : RAID 0, 0+1, 1, 3, 5, 6, 10, 30, 50 et RAID 60, disque de secours global, reconstruction automatique
- Processeur de stockage double cœur Intel IOP342 Chevelon 64 bits sur chaque contrôleur
- 2 Go de cache (par défaut) - 4 Go (en option) / SDRAM enregistrée DDR2-800 ECC
- Batterie de secours en option
- Deux ports de gestion/moniteur RJ45/Ethernet
- Gestionnaire SMTP et agent SNMP
- Puissance et refroidissement
- Quatre ventilateurs turbo
- Alimentation 110 ou 220 VAC, ±20% @ 6 amps / 3 amps crête
- Deux modules PS/ventilateur de 460 W avec PFC
- Environnement
- Humidité relative 10 % à 85 % sans condensation (en fonctionnement)
- Température de fonctionnement 50 °F à 104 °F
- Dimensions physiques 3U (L x P x H) 19″ de large, 22″ de profondeur, 5.25″ de haut
- Poids (sans disques) 40 lb. / 18 kg.
- Systèmes d'exploitation pris en charge : VMWare ESX Server, vSphere, Windows Server 2008, Windows Server 2003, XenServer, Oracle/Solaris, Linux, MAC OS X et autres à venir
- Garantie : logique 3 ans, alimentations 3 ans, disques SAS 5 ans, disques SATA 3 ou 5 ans
Concevoir et construire
Le JetStor SAS 616iSD est un SAN à double contrôleur équipé de 16 baies 10GbE. L'avant du 616iSD présente une interface utilisateur de base qui affiche des informations telles que l'adresse IP de gestion actuelle sans avoir à plonger dans votre routeur ou DHCP pour rechercher l'adresse IP à atteindre pour sa gestion Web. La console avant comprend un écran LCD, ainsi qu'une poignée de boutons pour parcourir les menus afin d'accéder au SAN localement. Pour gérer les aspects matériels du modèle JetStor, retournez simplement tout le visage et accédez aux seize baies de lecteur de 3.5 pouces en dessous.
Notre avis JetStor SAS 616iSD 10G inclus douze Seagate Guépard 15K.7 ST3600057SS 600 Go disques durs, bien que le système puisse être configuré avec une variété de disques 15K et 7,200 XNUMX tr/min. Chaque disque est monté dans son propre boîtier remplaçable à chaud, ce qui permet un remplacement facile en cas de panne du disque. Chaque plateau de disque comprend également un mécanisme de verrouillage de base pour éviter d'éjecter accidentellement le mauvais disque dans un environnement de production.
Pour monter facilement en rack le SAS 616iSD 10G, JetStor comprend un kit de rails non coulissants de base qui s'installe facilement en quelques minutes. Avec le poids du SAN pesant facilement dans la catégorie « team-lift », il est probablement préférable d'obtenir de l'aide pour soulever le SAN dans le rack une fois les rails montés. Les rails sont faciles à diriger dans les fentes de réception, et il reste fermement positionné dans notre Baie Eaton 42U sans aucune indication d'affaissement une fois monté.
La vue de l'arrière du JetStor SAS 616iSD 10G montre les contrôleurs de disque et les blocs d'alimentation redondants. Ces deux éléments sont rapidement retirés à l'aide de vis à oreilles, à l'aide d'un levier intégré et d'un mécanisme de poignée pour les retirer et les verrouiller fermement en place. Les connexions d'interface à l'arrière comprennent deux connexions SFP+ par contrôleur (un port sur chacun est équipé d'un émetteur-récepteur à fibre optique sur notre unité d'examen), un port de gestion par contrôleur, ainsi qu'un connecteur SAS SFF-8088 par contrôleur pour une extension JBOD externe en utilisant le SAS716J. Il existe également des connecteurs UPS et RS-232 pour permettre la communication avec d'autres équipements.
Dans le cas peu probable où un contrôleur aurait besoin d'être remplacé, il ne nous a pas fallu plus de 60 secondes pour retirer et réinsérer l'ensemble une fois installé dans notre rack. Bien que les leviers de verrouillage aient des vis à oreilles, JetStor recommande toujours que les techniciens de terrain serrent les vis avec un tournevis à tête plate pour s'assurer que tout est bien installé.
Le bloc d'alimentation était tout aussi simple à retirer et à réinstaller, bien que sa plus grande taille ait nécessité un effort plus minutieux pour dégager les câbles et l'équipement environnants à l'arrière de notre rack de test.
Les outils de gestion Web JetStor proposés pour configurer le SAS 616iSD sont faciles à suivre, mais assez basiques en termes de conception et de mise en œuvre. Dès la première connexion, il a été assez facile de rendre le système opérationnel, bien que l'interface ait parfois semblé lente. Pour une PME ou un environnement d'entreprise à plus petite échelle, il serait facile de gérer quelques-unes de ces plates-formes ensemble, bien qu'un environnement avec plus d'une poignée puisse entraîner des problèmes devant se connecter à chaque appareil pour le configurer individuellement.
Contexte des tests et comparables
Lorsqu'il s'agit de tester du matériel d'entreprise, l'environnement est tout aussi important que les processus de test utilisés pour l'évaluer. Chez StorageReview, nous proposons le même matériel et la même infrastructure que ceux que l'on trouve dans de nombreux centres de données auxquels les appareils que nous testons seraient finalement destinés. Cela inclut les serveurs d'entreprise ainsi que les équipements d'infrastructure appropriés tels que la mise en réseau, l'espace rack, le conditionnement/la surveillance de l'alimentation et le matériel comparable de même classe pour évaluer correctement les performances d'un périphérique. Aucun de nos avis n'est payé ou contrôlé par le fabricant de l'équipement que nous testons.
Présentation du laboratoire de test d'entreprise StorageReview
Plate-forme de test d'entreprise StorageReview 10GbE :
- 2 x Intel Xeon X5650 (2.66 GHz, cache de 12 Mo)
- Windows Server 2008 Standard Edition R2 SP1 64 bits et CentOS 6.2 64 bits
- Jeu de puces Intel 5500+ ICH10R
- Mémoire – 8 Go (2 x 4 Go) 1333 Mhz DDR3 enregistrés RDIMM
Commutateur et matériel Ethernet Mellanox SX1036 10/40 Go
- 36 ports 40GbE (jusqu'à 64 ports 10GbE)
- Câbles séparateurs QSFP 40GbE à 4x10GbE
- Adaptateur Ethernet Mellanox ConnectX-3 EN PCIe 3.0 Twin 10G
Notre infrastructure de test SAN et NAS Ethernet 10/40 Go actuelle se compose de notre plate-forme de test Lenovo ThinkServer RD240 équipée d'adaptateurs Mellanox ConnectX-3 PCIe connectés via le commutateur 36/10 GbE à 40 ports de Mellanox. Cet environnement permet au périphérique de stockage que nous testons d'être le goulot d'étranglement des E/S, au lieu de l'équipement réseau lui-même.
Analyse synthétique de la charge de travail d'entreprise
Pour les examens des baies de stockage, nous préconditionnons avec une charge lourde de 8 threads avec une file d'attente exceptionnelle de 8 par thread, puis testons à intervalles définis dans plusieurs profils de profondeur de thread/file d'attente pour montrer les performances sous une utilisation légère et intensive. Pour les tests avec une activité de lecture à 100 %, le préconditionnement s'effectue avec la même charge de travail, bien qu'il soit basculé sur 100 % d'écriture.
Tests de préconditionnement et d'état stable primaire :
- Débit (agrégat IOPS lecture + écriture)
- Latence moyenne (latence de lecture + écriture moyennée ensemble)
- Latence maximale (latence maximale de lecture ou d'écriture)
- Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)
À l'heure actuelle, Enterprise Synthetic Workload Analysis inclut des profils séquentiels et aléatoires communs, qui peuvent tenter de refléter l'activité du monde réel. Celles-ci ont été choisies pour avoir une certaine similitude avec nos références passées, ainsi qu'un terrain d'entente pour la comparaison avec des valeurs largement publiées telles que la vitesse de lecture et d'écriture maximale de 4K, ainsi que 8K 70/30 couramment utilisé pour les disques d'entreprise. Nous avons également inclus deux charges de travail mixtes héritées, y compris le serveur de fichiers traditionnel et le serveur Web offrant un large éventail de tailles de transfert. Ces deux derniers seront progressivement supprimés avec des benchmarks d'applications dans ces catégories au fur et à mesure de leur introduction sur notre site, et remplacés par de nouvelles charges de travail synthétiques.
- 1024K (séquentiel)
- 100 % de lecture ou 100 % d'écriture
- 8K (séquentiel)
- 100 % de lecture ou 100 % d'écriture
- 4K (aléatoire)
- 100 % de lecture ou 100 % d'écriture
- 8K 70/30 (aléatoire)
- 70 % de lecture, 30 % d'écriture
- Serveur de fichiers (aléatoire)
- 80 % de lecture, 20 % d'écriture
- 10 % 512b, 5 % 1k, 5 % 2k, 60 % 4k, 2 % 8k, 4 % 16k, 4 % 32k, 10 % 64k
- Serveur Web (aléatoire)
- 100 % lu
- 22 % 512b, 15 % 1k, 8 % 2k, 23 % 4k, 15 % 8k, 2 % 16k, 6 % 32k, 7 % 64k, 1 % 128k, 1 % 512k
Pour lancer notre analyse comparative, nous examinons les performances séquentielles de grands blocs avec une charge de 8 threads ayant chacun une file d'attente exceptionnelle de 8 E/S, qui est conçue pour montrer le taux de saturation du SAN sur le réseau, qui dans ce cas est de 10 GbE sur deux connexions utilisant MPIO, une par contrôleur. Lors de nos tests, les performances séquentielles de pointe ont été favorisées par les modes RAID5 et RAID6 par rapport à RAID10. Les vitesses allaient de 995 Mo/s au maximum avec RAID5 à 928 Mo/s avec RAID10. Les performances d'écriture étaient les plus élevées avec RAID6, mesurant 617 Mo/s, avec RAID5 avec 379 Mo/s et RAID10 avec seulement 150 Mo/s.
La latence moyenne lors de nos performances de transfert séquentiel mesurée 65 ms pour RAID5, 66 ms pour RAID6 et 70 ms pour RAID10 dans notre test de lecture 1024k, et 105 ms en RAID6, 172 ms en RAID5 et 434 ms pour RAID10 dans notre segment d'écriture.
Bien que la latence moyenne soit une mesure importante à prendre en compte lors de l'examen des performances globales, il est tout aussi précieux de savoir quelle pourrait être la latence dans le pire des cas. Dans le cas du JetStor SAS 616iSD, les temps de réponse de pointe en lecture ont été maintenus à 1,518 1,855-1,727 2,999 ms en activité de lecture et XNUMX XNUMX à XNUMX XNUMX ms en activité d'écriture.
La dernière mesure que nous examinons dans nos tests est l'écart type de latence, pour voir à quel point la propagation de la latence était étroitement groupée sur la durée du test. Le JetStor en RAID5 offrait les performances les plus constantes à la fois dans l'activité de lecture et d'écriture de gros blocs, avec RAID6 venant en deuxième position, et RAID10 avait la plus large diffusion dans nos deux tests de lecture et d'écriture.
Alors que le test de transfert séquentiel 1024k a été conçu pour mesurer le poste de saturation de la bande passante, notre prochain test examine l'activité séquentielle de petits blocs avec un transfert 8K pour mesurer le débit d'E/S dans le meilleur des cas. Alors que la plupart des activités qu'un SAN peut voir dans un environnement de production seront aléatoires à mesure que davantage de systèmes y accèdent, la sauvegarde nocturne ou l'activité d'arrière-plan pendant les périodes d'inactivité peuvent être proches de ces vitesses. Les performances de lecture séquentielle 8K maximales que nous avons mesurées s'élevaient à 78,686 5 IOPS dans une configuration RAID73,090, passant de 6 59,224 IOPS en RAID10 à 8 30,089 IOPS en RAID6. Les performances maximales d'écriture séquentielle 10K ont été mesurées à 27,622 5 IOPS en RAID22,049, avec RAIDXNUMX avec XNUMX XNUMX IOPS et RAIDXNUMX avec XNUMX XNUMX IOPS.
La latence séquentielle moyenne des petits blocs était faible dans l'ensemble de notre test de transfert 8K, la lecture RAID5 étant la plus rapide avec un temps de réponse de 0.81 ms, RAID6 venant ensuite avec 0.87 ms et RAID10 avec 1.08 ms. Les latences d'écriture étaient légèrement plus élevées compte tenu de leurs résultats de transfert d'E/S plus lents, avec RAID6 mesurant 2.12 ms, RAID10 avec 2.31 ms et RAID5 avec 2.9 ms.
La latence de lecture maximale dans notre test de transfert séquentiel 8K a mesuré un pic d'environ 1,000 593 ms sur l'ensemble du segment de lecture de notre test, avec une latence maximale d'écriture mesurant 10 ms en RAID1,195 jusqu'à 6 XNUMX ms en RAIDXNUMX.
En regardant la propagation de l'écart type de latence, le mode RAID6 a maintenu les performances de lecture séquentielle les plus cohérentes, le RAID5 RAID10 étant légèrement plus incohérent. RAID6 offrait également le meilleur écart-type séquentiel de 8K dans les transferts d'écriture.
Notre prochain groupe de tests se concentre sur les charges de travail aléatoires, le premier étant une écriture 100 % 4K dans le segment de préconditionnement. En termes d'empilement des modes RAID, RAID10 offrait le débit le plus élevé, avec RAID5 et RAID6 en dessous. Ce qui était intéressant cependant, ce sont les baisses de performances de la matrice RAID10, probablement causées par la maintenance en arrière-plan, que les configurations RAID5 et RAID6 n'avaient pas.
En regardant la latence moyenne pendant notre phase de préconditionnement, pour chaque mode RAID, vous pouvez voir comment le cache intégré a mis en mémoire tampon l'activité aléatoire entrante pendant 1 à 2 minutes, avant de se stabiliser aux performances des disques eux-mêmes.
Pendant notre charge de 8 threads, chacun avec 8 E/S en suspens, la latence maximale oscillait entre 200 et 500 ms pour chaque mode RAID avec une activité d'écriture 100 % 4K.
En nous concentrant sur l'écart type de latence, nous pouvons voir que les temps de réponse étaient les plus cohérents avec la configuration RAID10, suivie de RAID5 et RAID6.
Une fois le processus de préconditionnement terminé, nous avons prélevé des échantillons plus longs de performances de lecture et d'écriture aléatoires 100 % 4K pour chaque mode RAID. RAID6 offrait les vitesses de lecture les plus rapides de 6,242 1,492 IOPS, bien que des performances d'écriture plus lentes mesurant 10 3,186 IOPS. RAID4 offrait les meilleures performances d'écriture aléatoire avec 5,512 XNUMX IOPS, mais avait une vitesse de lecture aléatoire XNUMXK plus lente de XNUMX XNUMX IOPS.
Avec une profondeur de file d'attente effective exceptionnelle de 64, nous avons mesuré une latence de lecture et d'écriture aléatoire de 4K dans chaque mode RAID. La latence de lecture 4K aléatoire variait de 10.25 ms en RAID6 à 11.61 ms en RAID10. Latence d'écriture échelonnée de 20.08 ms en RAID10 à 42.89 ms en RAID6.
Au cours de notre période d'échantillonnage plus longue en dehors de la phase de préconditionnement, nous avons mesuré des temps de réponse de pointe allant de 473 à 610 ms dans les transactions de lecture et de 514 à 545 ms pendant l'activité d'écriture.
Alors que la latence maximale montre les pires temps de réponse sur la période d'échantillonnage, l'écart type montre la propagation de la latence sur toute cette période de test. RAID5 offrait la latence de lecture 4K aléatoire la plus cohérente, tandis que RAID10 offrait la latence d'écriture 4K la plus cohérente.
Le prochain test de préconditionnement fonctionne avec une répartition plus réaliste de la charge de travail en lecture/écriture, par rapport à l'activité d'écriture à 100 % dans nos charges de travail 1024 K, 100 % 8K ou 100 % 4K. Ici, nous avons un mélange de 70 % de lecture et 30 % d'écriture de transferts aléatoires 8K. En regardant notre charge de travail mixte 8K 70/30 sous une lourde charge de 8 threads et 8 files d'attente par thread, nous constatons que RAID10 offre le débit le plus élevé, suivi de RAID5 puis de RAID6. Les performances ont été très constantes pendant toute la durée du processus de préconditionnement, avec seulement des défauts mineurs de performances.
En regardant la propagation de la latence moyenne pendant notre charge de travail 8K 70/30, RAID10 était le plus plat, mesurant 12-13 ms sur la durée du test, suivi de RAID6 avec environ 16-17 ms, avec RAID5 mesurant 17-20 ms.
Les temps de réponse de pointe pour chaque type de RAID étaient assez constants dans la bande de 300 à 500 ms, avec quelques sauts au-dessus de 1,000 5 ms pour les types RAID RAID6 et RAIDXNUMX.
En comparant les différences d'écart type de latence entre les types de RAID, RAID10 offrait la latence la plus constante, suivi de RAID5 puis de RAID6.
Par rapport à la charge de travail fixe à 8 threads et 8 files d'attente maximales que nous avons effectuée dans les tests 100 % 4K, 8K et 1024K, nos profils de charge de travail mixtes adaptent les performances à une large gamme de combinaisons thread/file d'attente. Dans ces tests, nous étendons l'intensité de notre charge de travail de 2 threads et 2 files d'attente à 8 threads et 8 files d'attente. En regardant les différences de débit, chaque mode RAID fonctionnait à peu près au même niveau dans les zones où la profondeur de file d'attente effective restait de 16 et moins. Une fois qu'il est passé au-dessus de 32, vu dans les charges de travail 4T/8Q, 8T/4Q et 8T/8Q, le mode RAID10 offrait les performances les plus élevées, suivi par RAID5, puis par RAID6. En dessous de cette plage, chaque mode RAID offrait des performances similaires.
S'il est important de connaître la plage de débit de pointe, il est encore plus important de savoir comment régler votre charge pour qu'elle corresponde à la baie de stockage. Des vitesses d'E/S rapides mélangées à une latence élevée signifient simplement une interaction utilisateur lente, donc connaître le niveau de performance que vous pouvez obtenir avant que la latence ne commence à augmenter de manière significative est essentiel pour la convivialité. Le point idéal de nos tests, qui offrait le débit le plus élevé, mais maintenait également une latence relativement faible entre 6 et 8 ms, était à 8T/2Q, où les performances variaient entre 2,250 2,750 et XNUMX XNUMX IOPS.
En comparant la profondeur de file d'attente effective à la latence maximale du JetStor SAS 616iSD, le SAN a pu contenir les temps de réponse les plus élevés à moins de 500 ms jusqu'à la charge de travail 8T/8Q. À ce stade, la latence maximale a doublé pour RAID5 et RAID6.
En comparant l'écart type de latence dans les trois types de RAID, RAID10 offrait un léger avantage, RAID6 ayant généralement la plus grande propagation. Le sweet spot pour la latence la plus constante était cependant la charge 8T/2Q, qui était optimale pour tous les types de RAID.
La charge de travail du serveur de fichiers représente un spectre de taille de transfert plus important pour chaque baie particulière, donc au lieu de s'installer pour une charge de travail statique de 4k ou 8k, le SAN doit faire face à des demandes allant de 512b à 64k. Semblable aux autres charges de travail entièrement aléatoires, la configuration RAID10 offrait le débit le plus élevé, mesurant environ 4,500 5 IOPS sur la durée de notre processus de préconditionnement. RAID3,800 traînait avec une vitesse de 6 3,500 IOPS, suivi de RAIDXNUMX avec environ XNUMX XNUMX IOPS. Chaque type de RAID offrait des performances similaires du début à la fin, avec seulement des variations mineures.
En ce qui concerne la latence moyenne, chaque configuration RAID est restée assez stable pendant la durée du test de préconditionnement, le mode RAID10 s'installant à 14 ms, RAID5 à 16.5 ms et RAID6 au-dessus à 18 ms.
Les temps de réponse de pointe étaient plus étalés, allant de 200 ms à 1,200 10 ms pendant la phase de préconditionnement. La configuration RAID250 est restée la plus basse, avec un écart de 800 ms à un peu plus de 5 ms. RAID6 et RAID300 ont cependant culminé plus haut, allant de 1,200 ms à plus de XNUMX XNUMX ms.
RAID10 offrait l'écart type de latence le plus constant, suivi par RAID5 et RAID6 qui étaient un cran au-dessus.
En passant à notre tableau de débit de serveur de fichiers à l'échelle où nous augmentons la charge de 2T/2Q à 8T/8Q, nous avons noté une tendance similaire où à ou en dessous d'une profondeur de file d'attente effective de 16, il y avait très peu de différence de performances entre chacun des types de RAID . Au-dessus de ce niveau, RAID10 offrait les performances les plus élevées, suivi de RAID5, puis de RAID6.
En passant à la vue de la latence moyenne avec notre charge de travail de serveur de fichiers, les temps de réponse ont oscillé entre 5 et 8 ms tandis que la profondeur de file d'attente effective est restée égale ou inférieure à 16, puis a grimpé jusqu'à 14-19 ms en cas de charge maximale. Le sweet spot, similaire à la charge de travail 8K 70/30, était à nouveau à 8T/2Q, où le JetStor SAS 606iSD a pu offrir le débit le plus élevé de 2,000 2,500 à 7 8 IOPS avec une latence de XNUMX à XNUMX ms.
Dans notre test de serveur de fichiers, la latence maximale est restée entre 400 et 500 ms pour RAID5 et RAID6 jusqu'à 8T/4Q et 8T/8Q, avant que la latence n'augmente considérablement. Les temps de réponse maximum de RAID10 sont restés constants pendant toute la durée de nos tests.
L'écart type de tous les types de RAID est resté constamment incohérent pendant la durée du test de charge variable. À des charges plus élevées où les configurations atteignaient une profondeur de file d'attente de 8, la variation augmentait à tous les niveaux.
Notre dernière charge de travail est plutôt unique dans la façon dont nous analysons la phase de préconditionnement du test par rapport à la sortie principale. En tant que charge de travail conçue avec une activité de lecture à 100 %, il est difficile d'afficher les véritables performances de lecture de chaque appareil sans une étape de préconditionnement appropriée. Pour maintenir la charge de travail de conditionnement identique à la charge de travail de test, nous avons inversé le modèle pour qu'il soit à 100 % en écriture. Pour cette raison, les graphiques de préconditionnement sont plus lents que les chiffres de la charge de travail finale.
Dans un scénario de serveur Web avec une condition d'écriture à 100 %, la configuration RAID10 offrait les performances les plus élevées, bien que similaire au comportement que nous avons noté dans le test aléatoire 4K, elle s'est effondrée tout au long des sections du test alors qu'elle effectuait une activité en arrière-plan. Les autres profils RAID n'ont pas eu le même résultat, bien qu'ils aient également été globalement plus lents.
Dans le processus de préconditionnement du serveur Web avec une charge de 8T/8Q, il y avait une large gamme de différences de performances, avec RAID10 offrant les temps de réponse les plus rapides mesurant globalement 26-32ms, RAID5 mesurant environ 38-41ms et RAID6 avec 48-54ms.
En comparant les différences de latence maximale dans notre charge de travail de préconditionnement de serveur Web, tous les types de RAID offraient une plage similaire de temps de réponse de pointe mesurant 200 à 1,600 XNUMX ms au total.
Lors de la comparaison de la latence maximale, il n'y a peut-être pas eu trop de différences, mais lorsque nous nous concentrons sur l'écart type de latence, nous constatons que RAID10 offrait la propagation la plus étroite en latence, suivi de RAID5 puis de RAID6.
En passant d'une activité d'écriture à 100 % dans notre phase de préconditionnement à une activité de lecture à 100 %, la différence entre chaque type de RAID n'est pas aussi perceptible jusqu'à ce que les profondeurs de file d'attente effectives soient plus élevées. À son apogée, le mode RAID10 pouvait prendre en charge 5,100 5 IOPS, RAID4,800 avec 6 4,500 et RAIDXNUMX avec XNUMX XNUMX.
Le point idéal avec une activité de lecture à 100 % dans notre profil de serveur Web était toujours la charge 8T/2Q, qui offrait un temps de réponse de 6.2 à 6.6 ms avec un débit de 2,400 2,600 à 13 15 IOPS avant que la latence ne grimpe à XNUMX-XNUMX ms.
En comparant la latence maximale dans nos différents tests de charge, le JetStor SAS 616iSD a maintenu une plage de 400 à 600 ms jusqu'à la charge de travail 8T/8Q où les configurations RAID5 et RAID10 ont atteint 1,500 XNUMX ms.
En comparant les différences d'écart type de latence, chaque type de RAID sur le SAN JetStor offrait des temps de réponse plus cohérents lorsqu'il était sous une charge modérée, jusqu'à ce qu'il soit placé sous notre charge maximale de 8T/8Q. Dans la plage idéale de 8T/2Q, RAID6 offrait la latence la plus constante, suivi de RAID10 et RAID5.
Consommation d'énergie
Comme pour tout appareil situé dans un centre de données moderne, la consommation d'énergie et la production thermique sont toujours à l'esprit, car elles ont un impact double sur la consommation d'énergie de l'appareil lui-même et le refroidissement nécessaire pour compenser la chaleur qu'il crée pendant le fonctionnement. Avec la plupart des baies SAN et NAS, le composant le plus important de la consommation d'énergie globale est les disques eux-mêmes, ce qui, si vous avez un accès assez constant, signifie peu de temps d'inactivité et d'arrêt. Lors de nos tests, nous avons mesuré la puissance à l'état éteint, le système allumé mais les contrôleurs éteints, le système allumé et inactif, ainsi que le système allumé et voyant une charge d'E/S constante et élevée.
Avec douze disques durs SAS de 600 Go 15k installés, l'essentiel de la consommation d'énergie provient du maintien de ces disques actifs. Avec les contrôleurs éteints, la baie avait besoin de 216 watts au repos, ce qui est passé à 298 watts avec les contrôleurs allumés. Même avec une charge active, la consommation d'énergie n'a augmenté que de 7 watts supplémentaires pour atteindre 305 W avec une charge de travail séquentielle de 8K. Avec deux blocs d'alimentation de 460 W, nous avons constaté que le SAN JetStor était légèrement surapprovisionné en termes de besoins en énergie, car il restait à 66 % d'utilisation avec des disques durs de 15,000 XNUMX tr/min installés. Même avec quatre baies inutilisées, il restait encore beaucoup de frais généraux, même si une alimentation électrique tombait en panne et était supprimée de l'équation.
Pour aller plus loin
Le Jetstor SAS 616iSD 10G s'inscrit dans une catégorie de baies de stockage quelque peu amorphe en ce sens qu'il peut être utilisé seul avec des disques performants ou de grande capacité pour répondre aux besoins de virtualisation ou de stockage généraux d'une PME, ou associé à des étagères supplémentaires pour résoudre les problèmes de stockage des grandes entreprises. JetStor a bien conçu le 616iSD, tout à l'intérieur et à l'extérieur est bien pensé et l'unité se prête bien à un entretien facile sur le terrain. Des éléments tels qu'une conception interne sans câble ou des remplacements de composants sans outil signifient que les techniciens doivent effectuer très peu de travail pour maintenir le fonctionnement du SAS 616-SD dans un environnement de production. La configuration est également un jeu d'enfant, c'est à peu près plug and play, du moins dans le sens de l'entreprise de telles choses.
En termes de performances, nous avons testé la baie dans des configurations courantes de RAID5, RAID6 et RAID10. Examiner les trois est certainement pertinent, car nos tests ont constaté une variabilité significative dans chaque mode. RAID10 a toujours montré les performances les plus élevées, suivi par RAID5 puis RAID6 en termes de performances brutes et de latence la plus faible. En tant qu'entreprise envisageant de déployer cette baie ou toute autre, comprendre le point idéal pour les performances est particulièrement crucial pour le succès du déploiement du stockage. Dans ce cas, nous avons vu le meilleur objectif de performances à 8 threads, 2 files d'attente où le JetStor SAS 606iSD a pu offrir un débit élevé ainsi qu'une faible latence sur la plupart des charges de travail et tous les types de RAID. Les performances pourraient continuer à évoluer au-delà de ce point, même si la latence augmenterait considérablement. Du côté de l'alimentation, nous avons constaté que notre configuration SAS 12k à 15 disques consommait 305 watts sous charge, ce qui est bien inférieur à 460 watts que chaque bloc d'alimentation est conçu pour gérer. Cela donne au système beaucoup d'espace aérien, même s'il doit fonctionner avec une seule alimentation en cas de défaillance d'un composant.
Là où JetStor rencontre un petit problème, c'est qu'ils essaient de se déplacer plus haut de gamme vers des clients plus importants. Dans ces cas, la couche de gestion devient très importante et c'est quelque chose que JetStor n'a tout simplement pas beaucoup de profondeur. Comparé à EMC ou NetApp, où vous pouvez gérer des plates-formes de calcul et de stockage à grande échelle via une fenêtre de gestion unique, le SAN JetStor doit être configuré seul. Ce n'est pas exactement un problème lorsque vous travaillez avec quelques systèmes, c'est plus une question de comprendre quel segment du marché cette boîte joue. Au crédit de JetStor, ils n'essaient pas de remplacer les baies de stockage des grandes entreprises avec le SAS 616iSD ; ils sont solidement pointés vers le marché intermédiaire où cette conception a beaucoup de sens.
Avantages
- Belle conception de boîtier/composant
- Conception très robuste facile à entretenir
- Offre des performances solides et constantes dans une large gamme de charges de travail
Inconvénients
- Manque de logiciel de gestion des données d'entreprise à grande échelle
Conclusion
JetStor n'est pas exactement un nom connu en matière de stockage, même si cela devrait peut-être être le cas avec près de 20 ans d'expérience dans le secteur et un ensemble d'offres robustes. Spécifique à cet examen, le JetStor SAS 616iSD 10G fait tout ce qui lui est demandé et a suffisamment de flexibilité pour être configuré avec des disques durs 10GbE et 15K pour les besoins de performances, ou des disques durs haute capacité 3.5″ pour le stockage en vrac. La baie est simple à déployer et est bien conçue, se prêtant bien au stockage d'applications et de virtualisation pour les PME et les succursales/bureaux distants.
Page produit JetStor SAS 616iSD 10G