SUSE Enterprise Storage est une solution de stockage définie par logiciel optimisée par Ceph conçue pour aider les entreprises à gérer les ensembles de données en constante augmentation. De plus, SUSE vise à aider en tirant parti d'une économie de stockage favorable alors que les disques durs continuent de grossir et que les prix du flash continuent de baisser. Bien qu'il soit généralement configuré comme un hybride, Ceph est finalement aussi flexible que l'exige le client. Alors qu'une grande partie de l'enthousiasme défini par logiciel ces jours-ci se concentre sur le stockage principal et les offres hyperconvergées, Ceph contribue également à alimenter un développement matériel important. HP, Dell, Supermicro et d'autres ont tous investi massivement dans des châssis denses de 3.5 pouces avec plusieurs nœuds de calcul dans le but de fournir les plates-formes matérielles sous-jacentes requises par Ceph. Dans le cas de cet examen particulier, nous avons utilisé l'équipement HPE, y compris les serveurs ProLiant et le châssis Apollo. , mais SUSE Enterprise Storage peut être déployé sur à peu près n'importe quoi.
SUSE Enterprise Storage est une solution de stockage définie par logiciel optimisée par Ceph conçue pour aider les entreprises à gérer les ensembles de données en constante augmentation. De plus, SUSE vise à aider en tirant parti d'une économie de stockage favorable alors que les disques durs continuent de grossir et que les prix du flash continuent de baisser. Bien qu'il soit généralement configuré comme un hybride, Ceph est finalement aussi flexible que l'exige le client. Alors qu'une grande partie de l'enthousiasme défini par logiciel ces jours-ci se concentre sur le stockage principal et les offres hyperconvergées, Ceph contribue également à alimenter un développement matériel important. HP, Dell, Supermicro et d'autres ont tous investi massivement dans des châssis denses de 3.5 pouces avec plusieurs nœuds de calcul dans le but de fournir les plates-formes matérielles sous-jacentes requises par Ceph. Dans le cas de cet examen particulier, nous avons utilisé l'équipement HPE, y compris les serveurs ProLiant et le châssis Apollo. , mais SUSE Enterprise Storage peut être déployé sur à peu près n'importe quoi.
Bien qu'il soit au-delà de la portée de cet examen de plonger profondément dans Ceph, il est important d'avoir une compréhension de base de ce qu'est Ceph. Ceph est une plate-forme de stockage de logiciels qui est unique dans sa capacité à fournir un stockage d'objets, de blocs et de fichiers dans un système unifié. Une autre caractéristique intéressante de Ceph est qu'il est hautement évolutif, et jusqu'à des exaoctets de données. Il peut fonctionner sur du matériel de base (ce qui signifie que rien de spécial n'est nécessaire). Ceph est conçu pour éviter les points de défaillance uniques. Et quelque chose d'intéressant pour tout le monde, Ceph est disponible gratuitement.
Les utilisateurs peuvent configurer un nœud Ceph sur du matériel standard qui utilise plusieurs démons intelligents, quatre en particulier : les moniteurs de cluster (ceph-mon), les serveurs de métadonnées (ceph-mds), les périphériques de stockage d'objets (ceph-osd) et le transfert d'état représentatif ( RESTful) passerelles (ceph-rgw). Pour mieux protéger les données utilisateur et les rendre tolérantes aux pannes, Ceph réplique les données et les répartit sur plusieurs nœuds pour un débit plus élevé.
SUSE Enterprise Storage utilise Ceph comme stockage de masse très volumineux et économique pour plusieurs types de données. Les données ne feront que croître et le Big Data est très précieux, mais prend des quantités massives de capacité. Le Big Data peut donner aux entreprises des informations qui peuvent être extrêmement précieuses pour leurs résultats, mais pour analyser ces données, elles ont besoin d'un endroit pour les stocker en attendant. En plus de pouvoir stocker d'énormes quantités de données de manière rentable, SUSE Enterprise Storage est également hautement adaptable. Autogéré et autoréparateur, le logiciel est idéal pour s'adapter rapidement aux changements de la demande. Cela signifie que les administrateurs peuvent rapidement ajuster les performances et provisionner du stockage supplémentaire sans interruption. L'adaptabilité permet de donner de la flexibilité au matériel de base utilisé avec SUSE Enterprise Storage.
Fonctionnalités de stockage SUSE Enterprise
- Hiérarchisation du cache
- Provisionnement léger
- Clones de copie sur écriture
- Codage d'effacement
- Accès aux blocs OS hétérogènes (iSCSI)
- Accès unifié aux objets, aux blocs et au système de fichiers (aperçu technique)
- API pour l'accès programmatique
- Intégration OpenStack
- Évolutivité en ligne des nœuds ou de la capacité
- Mises à jour logicielles en ligne
- Chiffrement des données au repos
Configuration matérielle du stockage SUSE Enterprise
Les nœuds de surveillance gardent une trace de l'état du cluster, mais ne se trouvent pas dans le chemin des données. Dans notre cas, les trois nœuds de moniteur sont les serveurs 1U HPE ProLiant DL360. Pour la plupart des clusters SUSE Enterprise Storage, un trio de nœuds de surveillance est suffisant, bien qu'une entreprise puisse en déployer cinq ou plus s'il existe un très grand nombre de nœuds de stockage.
Les nœuds de stockage SUSE évoluent horizontalement et sont composés de trois nœuds HPE Apollo 4200 et de trois nœuds HPE Apollo 4510. Les données sont écrites en trois exemplaires sur les nœuds de stockage de notre configuration, bien sûr, cela peut être modifié en fonction des besoins. Les niveaux de protection sont définissables au niveau de la piscine.
- 3 nœuds HPE Apollo 4200
- 2x processeurs Intel E5-2680 v3
- 320GB RAM
- Kit de démarrage M.2
- 4x 480GB SSD
- 24 disques SATA 6k de 7.2 To
- 1x adaptateur double port 40 Go
- 3 nœuds HPE Apollo 4510
- 2x processeurs e5-2690 v3
- 320GB RAM
- Kit de démarrage M.2
- 4x 480GB SSD
- 24 disques SATA 6k de 7.2 To
- 1x adaptateur double port 40 Go
- 3 nœuds HPE ProLiant DL360
- 1E5-2660v3
- 64GB RAM
- 2x 80GB SSD
- 6x 480GB SSD
- 1x adaptateur double port 40 Go
- 2 commutateurs HP FlexFabric 5930-32QSFP+
- Configuration du serveur
- SUSE Linux Enterprise Server 12 SP1 avec SUSE Enterprise Storage
- OSD déployés avec un ratio de 6:1 de disque dur sur SSD pour les périphériques de journal
- Les HPE Apollo 4200 et 4510 participent ensemble à un cluster de stockage unique pour un total de 144 périphériques de stockage
- Les DL360 agissent dans les rôles d'administrateur, de moniteur et d'interface graphique Romana
- Les services de passerelle iSCSI sont déployés sur les 6 nœuds de stockage
Gestion du stockage d'entreprise SUSE
La majeure partie du stockage d'entreprise SUSE est gérée via CLI, bien qu'il existe également une interface graphique Web. Actuellement, SUSE utilise Calamari pour son interface graphique, bien que cela puisse changer à l'avenir. Une fois que les utilisateurs ont configuré et ouvert Calamari, ils ont un aperçu de ce que l'on attend normalement d'une interface graphique. La page principale comporte quatre onglets principaux qui s'exécutent en haut, notamment : Tableau de bord, Workbench, Graphiques et Gérer. L'onglet Tableau de bord (celui qui s'ouvre par défaut) affiche l'état du système ainsi que tous les avertissements actuellement actifs. Le nombre total d'OSD dans le cluster est affiché avec le montant total vers le haut et vers le bas également indiqué. Le nombre de moniteurs (total/et ce qui est en cours d'exécution) est affiché. Et le nombre total de pools est indiqué. Sous ceux-ci se trouvent le statut du groupe de placement, y compris les numéros actifs et propres, ainsi qu'un système de code couleur indiquant aux utilisateurs qui sont propres (vert), qui travaillent (jaune) et sales (rouge).
L'onglet Workbench donne aux utilisateurs une représentation graphique du nombre d'OSD et qui fonctionnent correctement et qui sont en panne. D'après le graphique, on peut voir que bien que la plupart fonctionnent correctement, indiqués par une couleur verte, il y en a un qui est surligné en rouge et qui est légèrement plus grand. Sur le côté gauche, les utilisateurs peuvent trier et filtrer par OSD.
Grâce à l'onglet Workbench, les utilisateurs peuvent également obtenir une représentation graphique des performances de leur stockage. Dans l'exemple ci-dessous, les utilisateurs peuvent voir leurs IOPS en lecture + écriture, l'utilisation de leur stockage et le nombre d'hôtes signalés.
Avec l'onglet Graphiques, les utilisateurs peuvent sélectionner un cluster et obtenir un graphique en lignes brisées qui montre les performances de ce cluster, en lecture et en écriture.
L'onglet Gérer permet aux utilisateurs de modifier les clusters, l'OSD, les pools et d'afficher les journaux. Sous le sous-onglet OSD, les utilisateurs peuvent voir les hôtes répertoriés sur le côté gauche et les OSD de chaque hôte. Les utilisateurs peuvent déplacer l'OSD pour équilibrer la charge.
Analyse synthétique de la charge de travail d'entreprise
Les performances de stockage varient à mesure que la baie est conditionnée à sa charge de travail, ce qui signifie que les périphériques de stockage doivent être préconditionnés avant chaque repères synthétiques fio afin de s'assurer que les repères sont exacts. Dans chaque test, nous préconditionnons le groupe avec la même charge de travail appliquée dans le test principal. Pour les tests, nous avons exécuté SUSE Enterprise avec une configuration standard non réglée. À l'avenir, les tests SUSE pourront être exécutés avec un système d'exploitation et un réglage Ceph spécifiques.
Tests de préconditionnement et d'état stable primaire :
- Débit (agrégat IOPS lecture + écriture)
- Latence moyenne (latence de lecture + écriture moyennée ensemble)
- Latence maximale (latence maximale de lecture ou d'écriture)
- Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)
Spécifications Dell PowerEdge LoadGen
- Serveurs Dell PowerEdge R730 (2-4)
- Processeurs : Double Intel Xeon E5-2690 v3 2.6 GHz (12C/28T)
- Mémoire : 128 Go DDR4 RDIMM chacun
- Mise en réseau : Mellanox ConnectX-3 40GbE
Le cluster SUSE Enterprise Storage étant orienté vers des transferts séquentiels importants, nous avons inclus un test de charge de travail aléatoire, tout en concentrant trois tests de transfert séquentiel sur le cluster dans des tailles de transfert sans cesse croissantes. Chaque charge de travail a été appliquée avec 10 threads et une profondeur de file d'attente exceptionnelle de 16. Des charges de travail aléatoires ont été appliquées avec 2 clients, avec des résultats combinés pour un score global, tandis que les résultats séquentiels ont été mesurés avec 2 et 4 clients. Chaque client lié pour bloquer les appareils dans le cluster CEPH via le RBD (protocole RADOS Block Devices).
Profils de charge de travail
- 4k Aléatoire
- 100 % de lecture et 100 % d'écriture
- 8k séquentiel
- 100 % de lecture et 100 % d'écriture
- 128k séquentiel
- 100 % de lecture et 100 % d'écriture
- 1024k séquentiel
- 100 % de lecture et 100 % d'écriture
Dans notre benchmark synthétique aléatoire 4k, le SUSE Enterprise Storage (appelé SUSE par souci de brièveté à partir de maintenant) a pu atteindre un débit de lecture de 8,739 8,646 et 17,385 4,571 IOPS avec des hôtes individuels avec un score de lecture global de 4,880 9,451 IOPS. Sur le débit d'écriture, les hôtes individuels ont atteint XNUMX XNUMX et XNUMX XNUMX IOPS avec un score global de XNUMX XNUMX IOPS.
En ce qui concerne la latence moyenne, les deux hôtes, et donc la moyenne entre eux, étaient très proches en lecture et en écriture. Du côté lecture, les hôtes individuels avaient des latences de 18.3 ms et 18.51 ms avec un total de 18.41 ms. Avec les écritures, les hôtes individuels avaient 34.99 ms et 32.78 ms avec un total de 33.88 ms.
La latence maximale a montré un score assez cohérent en écriture avec 4,890 4,628 ms et 4,759 5,227.2 ms pour les hôtes individuels et un total de 7,125.6 6,176.4 ms. Avec la latence de lecture, il y avait un écart beaucoup plus important entre les hôtes individuels avec des latences allant de XNUMX XNUMX ms à XNUMX XNUMX ms, ce qui nous donne un score global de XNUMX XNUMX ms.
L'écart type a encore une fois vu la latence se rapprocher beaucoup plus. Les hôtes individuels ont donné des latences de lecture de 36.7 ms et 37.21 ms avec un total de 36.96 ms. Les latences d'écriture allaient de 80.18 ms à 89.84 ms avec un score global de 85.01 ms.
De là, nous passons aux tests séquentiels, le premier étant notre 8k. Ici, nous examinons deux ensembles de tests (SUSE 2 et SUSE 4) avec deux hôtes dans SUSE 2 et quatre hôtes dans SUSE 4 avec des scores agrégés pour chaque ensemble. SUSE 2 nous a donné des débits en lecture de 66,610 66,763 et 5,235 5,375 IOPS et des débits en écriture de 133,373 10,608 et 4 47,629 IOPS. Pour le SUSE avec deux hôtes, nous avons des scores cumulés de 49,305 3,176 IOPS en lecture et 3,756 193,771 IOPS en écriture. Le SUSE avec 14,280 hôtes nous a donné des débits en lecture allant de XNUMX XNUMX à XNUMX XNUMX IOPS et des débits en écriture allant de XNUMX XNUMX à XNUMX XNUMX IOPS avec des scores cumulés de XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture.
En passant à un test séquentiel de 128k de gros blocs, le SUSE avec deux hôtes nous a donné des débits de lecture de 2.32 Go/s et 2.34 Go/s avec un score global de lecture de 4.47 Go/s. Les deux systèmes hôtes nous ont donné des débits d'écriture de 568 Mo/s et 572 Mo/s avec un score global d'écriture de 1.459 Go/s. Le SUSE avec quatre hôtes nous a donné des débits de lecture allant de 2 Go/s à 2.644 Go/s avec un score global de lecture de 9.365 Go/s. En ce qui concerne les débits d'écriture, le SUSE avec 4 hôtes nous a donné des débits allant de 353 Mo/s à 373 Mo/s avec un score global d'écriture de 1.46 Go/s.
En passant à un test séquentiel encore plus grand de 1,024 4.48 4.5 blocs, le SUSE avec deux hôtes nous a donné des débits de lecture de 8.98 Go/s et 869 Go/s avec un total de 885 Go/s. Avec des débits en écriture, le SUSE avec deux hôtes nous a donné des débits de 1.755 Mo/s et 2.553 Mo/s avec un débit en écriture cumulé de 3.295 Go/s. Le système à quatre hôtes nous a donné des débits de lecture allant de 11.863 Go/s à 372 Go/s avec un débit global de lecture de 618 Go/s. Avec des débits en écriture, les quatre hôtes SUSE nous ont donné des débits allant de 1.828 Mo/s à XNUMX Mo/s avec un score global en écriture de XNUMX Go/s.
Conclusion
SUSE Enterprise Storage est une solution SDS alimentée par Ceph conçue pour aider les entreprises qui sont aux prises avec des ensembles de données en constante augmentation. SUSE utilise Ceph comme stockage de masse pour tous les types de données, ce qui est avantageux car le Big Data est généré sous plusieurs formes. La flexibilité de Ceph est également un plus car il peut être déployé sur plus ou moins n'importe quoi, ce qui signifie que les entreprises peuvent tirer parti de SUSE Enterprise Storage avec Ceph sur les investissements existants (pour notre examen, nous avons utilisé des serveurs HPE ProLiant et un châssis Apollo). La flexibilité est un argument de vente, mais SUSE Enterprise Storage est également hautement adaptable, autogéré et autoréparateur. En d'autres termes, les administrateurs utilisant SUSE Enterprise Storage pourront apporter rapidement des modifications aux performances et provisionner davantage de stockage sans interruption.
Du côté des performances, nous avons exécuté une configuration de stock ou non réglée. Avec Ceph, il existe des tonnes de variantes qui peuvent être configurées. Au lieu de régler le système d'exploitation ou Ceph, les résultats que nous voyons sont des actions qui aident à établir une base de référence en matière de performances. SUSE Enterprise Storage est davantage adapté aux transferts séquentiels volumineux, donc davantage de nos tests vont dans ce sens. Si un utilisateur dispose d'un cluster SUSE Enterprise Storage, il l'utilisera très probablement pour de grandes quantités séquentielles et sera donc plus intéressé par ces résultats. Cela étant dit, nous avons quand même effectué des tests aléatoires 4k pour donner une idée globale du fonctionnement du système même lorsqu'il est présenté avec quelque chose pour lequel il n'est pas nécessairement adapté.
Dans nos tests aléatoires 4k, nous avons exécuté deux clients, appelés Host 1 et Host 2 dans les graphiques. Nous avons examiné les scores de chacun ainsi que le score combiné ou agrégé. Pour le débit, SUSE Enterprise Storage nous a donné un score de lecture global de 17,385 9,451 IOPS et un score d'écriture global de 4 18.41 IOPS. Avec des latences de 33.88k, SUSE Enterprise Storage nous a donné des latences moyennes globales de 6,176.4 ms en lecture et 4,759 ms en écriture, des latences maximales globales de 36.96 85.01 ms en lecture et XNUMX XNUMX ms en écriture, et un écart type global de XNUMX ms en lecture et XNUMX ms en écriture.
Des tests séquentiels plus importants ont été effectués avec 4 hôtes avec 2 ou 4 clients ainsi que les scores agrégés pour chacun des 2 et 4 clients. Nous avons testé les performances séquentielles en utilisant 8k, 128k et 1024k. Sans surprise, dans chaque test, l'hôte client global 4 du meilleur interprète global. En 8k, SUSE Enterprise Storage nous a donné des scores globaux élevés de 193,771 14,280 IOPS en lecture et 128 9.365 IOPS en écriture. Dans notre benchmark de 1.459 1024, le score global élevé était de 11.863 Go/s en lecture et de 1.828 Go/s en écriture. Et dans notre dernier benchmark séquentiel de gros blocs de XNUMXk, le SUSE Enterprise Storage nous a donné un score global élevé de XNUMX Go/s en lecture et XNUMX Go/s en écriture.
Avantages
- Solution hautement évolutive pour étendre les ensembles de données
- Software-defined signifie flexibilité dans le déploiement
- Offre une prise en charge de la connectivité traditionnelle telle que iSCSI
- Peut être réglé pour des charges de travail spécifiques et des besoins précis
Inconvénients
- La prise en charge de Radom IO pourrait être améliorée pour élargir les cas d'utilisation
- Nécessite de solides compétences basées sur Linux pour le déploiement et la gestion
Conclusion
SUSE Enterprise Storage offre une évolutivité, une flexibilité et un haut niveau d'adaptabilité aux entreprises qui cherchent à stocker et à exploiter le Big Data.
Inscrivez-vous à la newsletter StorageReview