Réseaux de stockage (SAN) tirer parti des architectures réseau de type bus pour accélérer et décentraliser l'accès au stockage d'entreprise. L'accélération de l'accès au stockage englobe donc l'accélération des performances du SAN ainsi que le support de stockage lui-même, ce qui rend essentiel l'équipement du Laboratoire de test d'entreprise StorageReview avec une variété d'options d'interconnexion dans les trois principales familles de protocoles réseau : Ethernet, InfiniBand et Fibre Channel. Ces options d'interconnexion fournissent les moyens d'effectuer une analyse comparative complète basée sur des conditions comparables à ce que les administrateurs SAN rencontrent réellement sur le terrain.
Réseaux de stockage (SAN) tirer parti des architectures réseau de type bus pour accélérer et décentraliser l'accès au stockage d'entreprise. L'accélération de l'accès au stockage englobe donc l'accélération des performances du SAN ainsi que le support de stockage lui-même, ce qui rend essentiel l'équipement du Laboratoire de test d'entreprise StorageReview avec une variété d'options d'interconnexion dans les trois principales familles de protocoles réseau : Ethernet, InfiniBand et Fibre Channel. Ces options d'interconnexion fournissent les moyens d'effectuer une analyse comparative complète basée sur des conditions comparables à ce que les administrateurs SAN rencontrent réellement sur le terrain.
Les baies de stockage XNUMX % Flash et les baies hybrides sont les technologies de stockage qui ont favorisé le développement d'interconnexions plus rapides, mais les administrateurs de grands pools de disques durs bénéficient également d'une attention particulière portée aux performances et à la fiabilité du SAN. Aujourd'hui, l'accès aux plates-formes d'interconnexion d'infrastructures convergées peut aider à éviter de se retrouver enfermé dans un protocole ou une couche de liaison physique, mais les choix d'interconnexion effectués lors de l'architecture des réseaux de stockage peuvent affecter les capacités et les performances du SAN pour les années à venir.
Une grande variété d'options pour la mise en œuvre du SAN, y compris les choix de câblage et de connecteurs, peut rendre difficile de dire au premier coup d'œil quelles combinaisons et configurations d'interconnexion conviennent le mieux à un périphérique ou à une application particulière. Cet aperçu de l'équipement réseau de l'Enterprise Test Lab commencera par une discussion de chacun des trois protocoles d'interconnexion les plus courants (Ethernet, InfiniBand et Fibre Channel) comme un aperçu des options pour les architectes et techniciens SAN. Nous décomposerons et illustrerons ensuite les principales options de couche de liaison physique disponibles pour les benchmarks d'entreprise StorageReview.
Ethernet
Le laboratoire StorageReview est équipé de matériel de commutation Ethernet de Netgear et Mellanox qui nous permet de déployer des options de connectivité de 1GbE à 40GbE. Pour les benchmarks 1GbE, nous utilisons les commutateurs prosommateurs Netgear ProSafe. Notre connectivité 10GbE est alimentée par un Netgear ProSafe Plus XS708E utilisant des connecteurs 8P8C et un Mellanox SX1036 10/40 Go, avec des câbles de sortance qui séparent quatre ports Ethernet SFP+ d'un seul port QSFP.
Bien que le terme Ethernet soit souvent utilisé comme synonyme de câblage en cuivre à paire torsadée doté d'un connecteur 8P8C (communément appelé connecteur RJ45), Ethernet fait référence à une norme de communication réseau qui peut être utilisée sur des liaisons physiques en cuivre et en fibre optique. Pour des longueurs relativement courtes, les câbles en cuivre offrent souvent un rapport qualité-prix convaincant pour les applications Ethernet, mais à mesure que les vitesses de transmission de données requises augmentent et que les distances de transmission augmentent, le câble à fibre optique commence à offrir un avantage concurrentiel par rapport au cuivre.
Nous voyons de nouveaux équipements avec Ethernet à trois niveaux :
- 1GbE - Actuellement en 2013, la plupart des équipements domestiques et prosommateurs sont conçus avec un Ethernet gigabit 1000BASE-T intégré, ainsi que des équipements pour les postes de travail d'entreprise, des NAS/SAN SMB et des interfaces LAN de serveur embarquées. Nous commençons à voir de plus en plus de norme d'expédition Ethernet à paire torsadée 10GBASE-T sur le matériel de serveur et de stockage, mais pour l'instant, les vitesses gigabit sont la norme minimale de facto pour la connectivité réseau filaire.
- 10GbE – Au cours de la première décennie des années 2000, des vitesses de 10 gigabits nécessitaient de la fibre optique ou du Twinax à court terme via des connecteurs de type SPF. Le cuivre et le connecteur 8P8C font désormais leur entrée dans les architectures SAN en raison de la disponibilité croissante du matériel réseau 10GBASE-T, qui permet des vitesses de dix gigabits sur cat6 et cat7. Le 10GbE sur cuivre à paires torsadées a fait du 10GBASE-T un nouveau choix abordable pour l'interconnexion de stockage à haut débit, bien que la fibre optique domine toujours le marché. Notre Commutateur Netgear M7100 dispose de vingt-quatre ports 10GBase-T et de 4 ports SFP+, tandis que notre Netgear ProSafe Plus XS708E dispose de huit ports 10GbE et d'un port SFP+ fibre 10G partagé.
- 40GbE – Via QSFP+ qui consolide quatre voies SFP+ en un seul connecteur, nous sommes en mesure d'obtenir une connectivité 40GbE souvent nécessaire pour les baies de stockage modernes les plus rapides. Le matériel d'infrastructure convergée, comme le Mellanox SX6036 que nous utilisons en laboratoire, fournit des options pour InfiniBand 40 GbE ou 56 Gb/s selon la configuration. UN Commutateur Ethernet Mellanox SX1036 10/40 Go sert de colonne vertébrale au réseau du Lab.
InfiniBand
InfiniBand est devenu largement disponible au début des années 2000 avec les fabricants de commutateurs Mellanox et QLogic qui ont fait avancer la norme. InfiniBand offre cinq niveaux de performances de liaison : débit de données unique (SDR) à 2.5 Gb/s par voie, débit de données double (DDR) à 5 Gb/s, débit de données quadruple (QDR) à 10 Gb/s, quatorze débits de données (FDR) à 14 Gb/s et débit de données amélioré (EDR) à 26 Gb/s par voie unidirectionnelle.
InfiniBand peut être utilisé avec un câblage en cuivre ou en fibre optique en fonction des performances requises et de la distance requise pour l'interconnexion. Aujourd'hui, les connecteurs SFF-8470, souvent simplement appelés connecteurs InfiniBand, terminent généralement les câbles avec les connecteurs de type SFP. Le laboratoire de test d'entreprise de StorageReview abrite une structure Mellanox InfiniBand de 56 Gb/s qui est utilisée dans l'analyse comparative des appareils de stockage flash, y compris notre Base de données NoSQL MarkLogic référence.
Le benchmark MarkLogic NoSQL compare les performances de stockage sur une variété de périphériques, y compris les accélérateurs d'applications PCIe, les groupes de disques SSD et les grandes baies de disques durs. Nous utilisons un tissu Mellanox InfiniBand alimenté par notre Mellanox SX6036 pour fournir les interconnexions pour ces benchmarks en raison de son débit réseau de 56 Gb/s ainsi que de la prise en charge des protocoles iSER (iSCSI-RDMA) et SRP (SCSI RDMA). iSER et SRP remplacent la pile TCP iSCSI par l'accès direct à la mémoire à distance (RDMA), qui permet une plus grande efficacité dans un environnement en cluster en permettant au trafic réseau de contourner les processeurs des systèmes et en permettant aux données d'être copiées de la mémoire des systèmes d'envoi directement vers le la mémoire des systèmes récepteurs. Ces fonctionnalités sont également transférées sur Ethernet avec le protocole iSCSI sur RDMA (iSER).
Avoir ce tissu InfiniBand en place, en conjonction avec un Serveur Quad-Node EchoStreams GridStreams et un ensemble standardisé de benchmarks MarkLogic NoSQL, nous permet de pousser de nouveaux périphériques de stockage hautes performances tels que le Accélérateur d'applications PCIe Micron P320h 2.5″ pour voir comment les spécifications du fabricant se comparent aux performances dans des conditions réelles. Plus tard cette année, nous ajouterons une nouvelle référence VMware qui exploite également le SAN InfiniBand de StorageReview.
Protocole Fibre Channel
À la fin des années 1990, Fibre Channel était le protocole d'interconnexion dominant pour les réseaux de calcul et de stockage (SAN) à haut débit. Créant une certaine confusion, Fibre Channel est utilisé comme raccourci pour le protocole Fibre Channel, un protocole de communication série basé sur des canaux qui est souvent déployé sur des câbles en cuivre et en fibre optique. La couche de liaison physique de Fibre Channel permet à une seule voie de communication d'être acheminée sur plusieurs types de technologie de liaison, y compris le mélange de segments de cuivre et de fibre optique, afin d'atteindre sa destination.
Le laboratoire StorageReview intègre à la fois une connectivité FC 8 Gb/s et 16 Gb/s via un Fibre Channel QLogic SB5800V 8 Go interrupteur et un Brocart 6510 16 Go FC changer. Pour les applications d'infrastructure convergée, nous utilisons des HBA à double port QLogic 16 Go et, dans d'autres situations, nous utilisons également des HBA Emulex Fibre Channel 16 Go à port unique. L'une des principales différences entre l'équipement Fibre Channel et les autres infrastructures SAN est la tarification et les licences. Alors que les commutateurs Ethernet sont généralement disponibles avec un nombre défini de ports (généralement 12, 24 ou 48) qui sont tous actifs à l'achat, il est courant pour les fabricants de FC d'utiliser un modèle de licence par port, où un commutateur Fibre Channel peut comporter 48 ports physiques, mais n'incluent que des licences groupées pour 12 ou 24 d'entre eux lors de l'achat initial. Des ports supplémentaires et parfois d'autres fonctionnalités sont activés selon les besoins en achetant des licences supplémentaires.
Fibre Channel est le premier protocole SAN pris en charge par Technologie Mt. Rainier de QLogic, qui combine les adaptateurs HBA SAN QLogic avec un stockage flash sur serveur et un logiciel pour fournir une mise en cache indépendante du système d'exploitation via une carte PCIe installée sur les serveurs. Mt. Rainier se concentre sur une carte adaptateur basée sur QLogic PCIe HBA pour la gestion de la logique et du cache ainsi que le stockage lui-même, qui se connecte ensuite au niveau flash. Le résultat net est un cache local pour le serveur de calcul via une carte d'interface qui aurait été nécessaire pour la connectivité SAN Fibre Channel malgré tout. Pour les applications exécutées sur un serveur ou un cluster, le cache ressemble à un stockage SAN, mais il est plus rapide d'accès.
Cette approche, tirant parti de l'infrastructure SAN pour fournir une mise en cache locale et à l'échelle du cluster, démontre l'importante marge d'innovation dans la génération actuelle de la technologie Fibre Channel. L'installation de plusieurs adaptateurs FabricCache de QLogic dans un cluster permet de partager le cache partout - l'intégration avec la structure Fibre Channel permet d'exploiter le cache sur carte à la fois à l'échelle locale et du cluster.
Composants physiques
Câble cuivre à paire torsadée (câbles Cat)
Le câble en cuivre à paire torsadée est l'interconnexion la plus largement utilisée en dehors des réseaux de stockage à haut débit, bien qu'avec l'arrivée des interconnexions en cuivre gigabit et 10 gigabit, la paire torsadée ait pu faire des gains par rapport au câble à fibre optique pour les applications SAN à haut débit. La famille "cat" (catégorie) de câbles à paires torsadées présente les avantages d'un faible coût, d'une facilité de fabrication et d'un type de connecteur qui est resté relativement inchangé à travers plusieurs générations de technologies de réseau.
Le câble en cuivre à paire torsadée est évalué par un numéro de génération qui reflète son taux de transmission de données maximum et sa distance de liaison nominale maximum. À partir des années 1990, une succession de générations « cat » a apporté une connectivité de 100 Mb/s (cat5), 1 Gb/s (cat5e), 10 Gb/s (cat6) et une distance de liaison maximale accrue (cat7).
Twinax
Utilisé à l'origine dans les premiers systèmes de micro-ordinateurs, le câblage twinaxial (Twinax) a trouvé une utilisation continue en tant que couche physique pour les interconnexions 10GbE au 21e siècle. En raison de sa construction simple, Twinax offre des avantages de coût par rapport aux câbles à fibre optique pour les courts trajets, mais est néanmoins plus cher que le 10GbE via une paire torsadée cat6 ou cat7. Si le câble à paire torsadée continue de gagner du terrain dans les applications d'interconnexion SAN, Twinax pourrait à nouveau être relégué aux applications héritées et de niche.
Câble de fibre optique
Les câbles à fibre optique offrent un certain nombre d'avantages techniques par rapport au cuivre pour la transmission de données, bien que leur coût beaucoup plus élevé et le manque de moyens pratiques des techniciens pour créer leurs propres câbles dans le centre de données aient conduit de nombreuses entreprises et centres de données à reconsidérer le cuivre pour les interconnexions. Parmi les avantages de la fibre optique figurent des longueurs de transmission maximales plus longues et une absence de vulnérabilité au « bruit » électromagnétique provenant d'équipements à proximité ou d'une installation incorrecte.
La fibre optique se décline en deux variétés : monomode et multimode. Le mode unique comporte un brin interne et est capable de débits de données maximaux et de distances entre les segments de réseau supérieurs. Cependant, cela nécessite l'utilisation de lasers plus coûteux, ce qui peut augmenter le coût des périphériques réseau. Le multimode tolère les matériaux de câble moins chers et peut être piloté par des lampes LED plus simples et moins chères plutôt que par des lasers.
À l'heure actuelle, l'optique reste le câble universel pour la mise en œuvre du SAN d'entreprise. Les interconnexions à fibre optique modernes comportent généralement des sous-connecteurs standard de l'industrie, ce qui fait des mises à niveau et des changements de protocole une question d'échange d'émetteurs-récepteurs pour utiliser le même lien pour Ethernet, Fibre Channel ou InfiniBand. Les coûts initiaux d'installation de la fibre optique sont élevés, mais un câble de qualité a une longue durée de vie, car les mises à niveau de la bande passante ne nécessitent souvent que la mise à niveau des émetteurs-récepteurs et du matériel de commutation.
Émetteur-récepteur/connecteurs de style SFP
Au cours des 10 dernières années, SFP et les successeurs de SFP ont dominé un segment croissant du marché de l'interconnexion en raison de la flexibilité du facteur de forme. La plupart de ce que nous voyons en 2013 comporte SFP+ ou QSFP, bien qu'il existe d'autres variantes.
- SFP : Small Form-Factor Pluggable, conçu pour des vitesses allant jusqu'à 1 Gb/s
- SFP+ : Enhanced Small Form-Factor Pluggable, conçu pour des vitesses allant jusqu'à 10 Gb/s et rétrocompatible avec SFP
- QSFP : Quad Small Form-Factor Pluggable, conçu pour prendre en charge 40 Gb/s et des connexions plus rapides, ce facteur de forme combine quatre interfaces en un seul émetteur-récepteur
Avoir hâte de
Avec le soutien de Brocade, Emulex, HP, Intel, Mellanox, Netgear, QLogic et autres, le laboratoire StorageReview est équipé pour tout besoin d'interconnexion qui pourrait survenir. Dans un environnement hétérogène comme celui-ci, la flexibilité est la clé, on ne sait pas quand une partie de la dorsale fibre devra être provisionnée pour une nouvelle baie ou quand nous verrons un petit NAS standard qui prend en charge l'agrégation de liens quad-Ethernet. Bien sûr, tous les environnements d'entreprise ou de PME n'auront pas besoin d'être aussi flexibles et, à cette fin, certains fournisseurs de stockage parlent davantage de modularité que d'enfermer les acheteurs dans des exigences d'interconnexion spécifiques. NetApp, par exemple, propose des cartes Fibre et 10GbE échangeables pour faciliter l'insertion de leurs baies dans des environnements qui peuvent avoir été standardisés sur l'un ou l'autre.
Les gars de l'interconnexion font également quelque chose de similaire, des commutateurs SFP+ sont maintenant disponibles qui permettent aux techniciens de basculer facilement entre les supports de liaison et les protocoles sans arracher et reconstruire. Les adaptateurs de bus hôte (HBA) convergés QLogic prennent en charge le changement de ports entre Ethernet et Fibre Channel en échangeant les émetteurs-récepteurs et les câbles, ainsi qu'en modifiant un paramètre dans le BIOS de la carte. Mellanox a été l'un des premiers leaders dans le domaine des cartes réseau qui utilisent des interconnexions virtuelles, permettant à la même carte réseau de fonctionner via InfiniBand ou Ethernet en connectant un câble différent et en chargeant un pilote différent.
L'élan vers l'infrastructure convergée est parallèle à la tendance à la virtualisation. Les implications des générations les plus récentes de SAN et de technologie de virtualisation indiquent un mouvement constant pour dissocier l'infrastructure physique non seulement des serveurs et des applications qui y sont exécutés, mais également de la couche réseau qui connecte l'infrastructure elle-même. Plutôt que de voir des plates-formes d'interconnexion concurrentes évoluer vers des silos et une concurrence entre les technologies, le marché s'oriente plutôt vers l'intercompatibilité et des infrastructures hétérogènes et convergées.