Le stockage flash NVMe a pris d'assaut l'industrie, s'imposant comme la norme de facto lorsque le stockage hautes performances et à faible latence est requis. Il y a cependant des moments où NVMe peut être exagéré, ou des cas où une approche flash hybride a plus de sens. De nombreuses solutions définies par logiciel basées sur serveur qui tirent parti de Flash peuvent le faire dans une capacité multiniveau. VMware vSAN et Microsoft Azure Stack HCI sont peut-être les plus connus de cette manière ; les deux peuvent tirer parti d'un petit pool flash hautes performances pour la hiérarchisation et de SSD moins chers pour la capacité. La mise en place de SSD SATA à moindre coût avec un petit nombre de NVMe offre un excellent mélange de performances, de capacité et de coût.
Le stockage flash NVMe a pris d'assaut l'industrie, s'imposant comme la norme de facto lorsque le stockage hautes performances et à faible latence est requis. Il y a cependant des moments où NVMe peut être exagéré, ou des cas où une approche flash hybride a plus de sens. De nombreuses solutions définies par logiciel basées sur serveur qui tirent parti de Flash peuvent le faire dans une capacité multiniveau. VMware vSAN et Microsoft Azure Stack HCI sont peut-être les plus connus de cette manière ; les deux peuvent tirer parti d'un petit pool flash hautes performances pour la hiérarchisation et de SSD moins chers pour la capacité. La mise en place de SSD SATA à moindre coût avec un petit nombre de NVMe offre un excellent mélange de performances, de capacité et de coût.
Un autre facteur lors de l'examen du déploiement de flash est le serveur lui-même. Bien qu'il existe de nombreux serveurs entièrement NVMe de fournisseurs grands et petits, il est souvent peu pratique ou inutile d'emprunter cette voie. Le coût des disques NVMe étant plus élevé que SATA, la majorité des serveurs vendus aujourd'hui offriront quelques baies NVMe, mélangées à SATA/SAS pour le reste. Un tel serveur qui est vendu de cette façon est le Dell EMC Power Edge R640.
Le Dell EMC PowerEdge R640 est un serveur 1U à 2 sockets conçu pour les tâches où la densité de calcul est importante. Dans notre laboratoire, nous avons un R640 configuré avec 10 baies de lecteur de 2.5 pouces, dont 4 baies combinées NVMe/SAS/SATA et 6 baies SAS/SATA, bien que Dell propose une grande variété de configurations. Ce type de configuration de stockage nous permet de tirer parti de jusqu'à quatre SSD NVMe très rapides, ainsi que de tirer parti de SSD SATA à coût optimisé. Les baies combinées permettent également aux clients d'utiliser davantage les SSD NVMe à mesure que les besoins d'E/S augmentent ou de s'en tenir à plus de SATA ou de SAS en fonction des exigences spécifiques de la construction.
SK hynix PE6011 SSD
Pour illustrer davantage ce concept, nous avons travaillé avec SK hynix tester un groupe de Disques SSD NVMe PE6011 et un groupe de SSD SATA SE4011. Ces tests sont effectués pour montrer comment chaque disque peut se compléter, NVMe offrant une bande passante et un potentiel d'E/S supérieurs, et SATA offrant les besoins en capacité sans baisse significative de la latence ou des performances. Les tests indiquent clairement où se trouvent les bandes de performances, de sorte que l'entreprise dispose d'une image complète pour faciliter le processus de prise de décision, en particulier lors de la conception de solutions définies par logiciel comme un magasin d'objets (SUSE Enterprise Storage) ou une appliance de stockage virtuel plus traditionnelle (StoreONE) .
Disques SSD SATA contre NVMe – Banc d'essai Dell EMC PowerEdge R640
Dans notre configuration de test, nous avons utilisé un Dell PowerEdge R640 équipé de deux processeurs Intel Xeon évolutifs 2 de 8280e génération avec une vitesse d'horloge de 2.7 GHz et 28 cœurs chacun. Douze modules DDR32 de 2933 Go à 4 MHz étaient associés à ces processeurs, donnant au système une empreinte mémoire combinée de 384 Go. Pour la connectivité SATA, le R640 comprenait une carte RAID PERC H740P et des disques configurés en mode pass-through HBA. Pour la connectivité NVMe, les quatre SSD communiquent avec le 2ème CPU avec des voies PCIe directes, sans l'utilisation d'un commutateur PCIe à l'intérieur du R640. Cette méthode a contourné l'impact du cache du contrôleur et s'est plutôt concentrée sur les performances des disques eux-mêmes, agrégés ou individuellement dans VMware.
Dell EMC Power Edge R640
Notre configuration de test consistait en deux configurations de stockage. Le premier était quatre SSD NVMe PE6011, équipant entièrement les quatre baies NVMe à l'intérieur du PowerEdge R640, laissant les six baies SATA/SAS restantes ouvertes. Le second était composé de huit SSD SATA SE4011, utilisant pleinement toutes les baies SATA/SAS dédiées, laissant deux baies combinées NVMe disponibles.
Pour les benchmarks bare metal, nous avons utilisé CentOS 7.2 (1908) minimal, avec OpenJava installé aux côtés de vdbench. Nous avons mesuré chaque groupe de disques dans son ensemble, montrant les performances de pointe de quatre SSD NVMe PE6011 et suivantes avec huit SSD SATA SE4011. Dans notre environnement de test virtualisé, nous avons installé VMware ESXi 6.7u3, et formaté des SSD individuels avec des magasins de données, et y avons placé des bases de données SQL Server ou MySQL. Pour les tests Sysbench, nous utilisons 8 VM, avec deux placées sur chaque SSD dans le cas des tests NVMe, une par SSD dans le cas des tests SATA. Pour SQL Server avec le test composé de 4 machines virtuelles uniquement, nous plaçons chacune sur son propre SSD, ce qui nous donne quatre SSD NVMe ou quatre SSD SATA testés.
Test VDbench / nombre de threads
Tous ces tests exploitent le générateur de charge de travail vdBench commun, avec un moteur de script pour automatiser et capturer les résultats sur un grand cluster de test de calcul. Cela nous permet de répéter les mêmes charges de travail sur une large gamme de périphériques de stockage, y compris les baies flash et les périphériques de stockage individuels.
Profils:
- Lecture aléatoire 4K : 100 % de lecture, 128 threads, 0-120 % d'iorate
- Écriture aléatoire 4K : 100 % d'écriture, 128 threads, 0-120 % de vitesse
- Lecture séquentielle 64K : 100 % de lecture, 32 threads, 0-120 % d'iorate
- Écriture séquentielle 64K : 100 % d'écriture, 16 threads, 0-120 % d'iorate
Configuration SQL Server (4VM)
Le protocole de test Microsoft SQL Server OLTP de StorageReview utilise la version actuelle du Transaction Processing Performance Council's Benchmark C (TPC-C), une référence de traitement des transactions en ligne qui simule les activités trouvées dans des environnements d'application complexes. Le benchmark TPC-C est plus proche que les benchmarks de performances synthétiques pour évaluer les forces de performance et les goulots d'étranglement de l'infrastructure de stockage dans les environnements de base de données.
Chaque machine virtuelle SQL Server est configurée avec deux vDisks : un volume de 100 Go pour le démarrage et un volume de 500 Go pour la base de données et les fichiers journaux. Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 64 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI. Alors que nos charges de travail Sysbench testées précédemment saturaient la plate-forme à la fois en termes d'E/S de stockage et de capacité, le test SQL recherche les performances de latence.
Ce test utilise SQL Server 2014 s'exécutant sur des machines virtuelles invitées Windows Server 2012 R2 et est souligné par Dell Benchmark Factory for Databases. Alors que notre utilisation traditionnelle de cette référence a été de tester de grandes bases de données à l'échelle 3,000 1,500 sur un stockage local ou partagé, dans cette itération, nous nous concentrons sur la répartition uniforme de quatre bases de données à l'échelle XNUMX XNUMX sur nos serveurs.
Configuration des tests SQL Server (par machine virtuelle)
- Windows Server 2012 R2
- Empreinte de stockage : 600 Go alloués, 500 Go utilisés
- SQL Server 2014
- Taille de la base de données : échelle 1,500 XNUMX
- Charge de client virtuel : 15,000 XNUMX
- Mémoire tampon : 48 Go
- Durée du test : 3 heures
- 2.5 heures de préconditionnement
- Période d'échantillonnage de 30 minutes
Configuration MySQL Sysbench (8VM)
Notre base de données Percona MySQL OLTP mesure les performances transactionnelles via SysBench. Ce test mesure également le TPS moyen (transactions par seconde), la latence moyenne et la latence moyenne au 99e centile.
Chaque machine virtuelle Sysbench est configurée avec trois vDisks : un pour le démarrage (~92 Go), un avec la base de données prédéfinie (~447 Go) et le troisième pour la base de données testée (270 Go). Du point de vue des ressources système, nous avons configuré chaque machine virtuelle avec 16 vCPU, 60 Go de DRAM et exploité le contrôleur LSI Logic SAS SCSI.
Configuration des tests Sysbench (par machine virtuelle)
- CentOS 6.3 64 bits
- Percona XtraDB 5.5.30-rel30.1
- Tableaux de base de données : 100
- Taille de la base de données : 10,000,000 XNUMX XNUMX
- Threads de base de données : 32
- Mémoire tampon : 24 Go
- Durée du test : 3 heures
- 2 heures de préconditionnement 32 fils
- 1 heure 32 fils
Résultats des performances des SSD SK hynix SATA et NVMe
Pour caractériser les performances du SSD SK hynix PE6011 NVMe et du SSD SE4011 SATA, nous avons effectué une charge de travail synthétique « aux quatre coins » sur eux. Cela a comparé les performances brutes de quatre SSD NVMe à huit SSD SATA, tous adressés directement pour une image d'E/S totale sans que RAID n'affecte les performances.
Notre première charge de travail a mesuré la bande passante de lecture maximale de chaque groupe de disques avec une charge de travail séquentielle de 64K. Dans cette charge de travail, nous avons mesuré une bande passante maximale de 3.97 Go/s à une latence de 4 ms à partir du groupe de huit disques SATA. Le groupe de quatre disques NVMe a mesuré une bande passante maximale de 10.76 Go/s à 0.734 ms.
Ensuite, nous avons examiné la bande passante d'écriture séquentielle avec la même charge de travail séquentielle de 64K. Dans ce cadre, le groupe SATA SSD mesurait 3.06 Go/s à son apogée, avant de revenir à 2.8 Go/s avec une latence de 2.8 ms à un point de sursaturation. Le groupe SSD NVMe a cependant été mis à l'échelle jusqu'à 3.6 Go/s avec une latence de 1.1 ms.
En nous concentrant sur nos tests de débit de pointe mesurant les performances aléatoires 4K, nous examinons d'abord notre charge de travail de lecture. Dans ce cadre, le groupe de huit SSD SATA a culminé à 542 1.9 IOPS avec une latence de 2.46 ms. En comparaison, les quatre SSD NVMe ont pu les dépasser de loin avec un débit maximal de 0.205 millions d'IOPS à une latence de XNUMX ms.
Le dernier composant de notre charge de travail synthétique « aux quatre coins » mesurait les performances d'écriture 4K aléatoires de chaque groupe de disques. Les huit SSD SATA ont pu offrir un pic de 500 1.99 IOPS à une latence de 835 ms, tandis que les quatre SSD NVMe offraient 0.572 XNUMX IOPS à une latence de XNUMX ms.
Dans la dernière étape de nos tests synthétiques, nous avons examiné deux cas d'utilisation VDI, le premier étant VDI Full Clone Boot. Dans cette charge de travail, les quatre SSD NVMe PE6011 offraient une bande passante maximale de 384 5.3 IOPS ou 0.33 Go/s à une latence de 4011 ms, tandis que les huit SSD SATA SE202 SATA atteignaient un pic avec une bande passante de 2.8 1.2 IOPS ou XNUMX Go/s à une latence de XNUMX ms.
En mesurant les performances des SSD PE6011 NVMe, nous avons constaté une bande passante maximale de ce groupe culminant à 186 3.5 IOPS ou 0.55 Go/s à 109 ms. Le groupe de huit disques SATA a mesuré plus de 2.1 1.9 IOPS ou XNUMX Go/s à une latence de XNUMX ms.
En examinant les performances de chaque groupe de disques dans nos charges de travail à quatre coins et VDI, nous constatons qu'un rapport de 2: 1 entre SATA et NVME offrait un bon équilibre entre les performances de lecture et d'écriture. Les SSD PE6011 ont pu offrir un débit de lecture et une bande passante très élevés à faible latence par rapport à leurs homologues SATA. En ce qui concerne le débit d'écriture et la bande passante, les SSD SE4011 ont pu absorber des charges de travail pas trop loin derrière leurs homologues NVMe, ce qui est important lors de la combinaison de différentes classes de disques dans une solution de stockage où les données doivent se déplacer entre les niveaux assez rapidement sans ralentir les charges de travail entrantes. .
Nos deux dernières charges de travail examinent les performances de Microsoft SQL Server TPC-C et de MySQL Sysbench s'exécutant sur plusieurs machines virtuelles dans un environnement virtualisé VMWare ESXi 6.7u3. Ces deux tests sont conçus pour montrer des performances réelles avec notre charge de travail SQL Server axée sur la latence et notre test MySQL axé sur les performances transactionnelles de pointe.
Dans notre charge de travail SQL Server pour ce projet, nous avons testé 4 machines virtuelles, chacune placée dans une seule banque de données VMFS 5. Cette charge de travail a utilisé quatre des SSD SK hynix PE6011 NVMe et quatre SSD SE4011 SATA. À l'aide de Quest Benchmark Factory, un utilisateur virtuel de 15 XNUMX utilisateurs est appliqué à chaque machine virtuelle et la réactivité de la base de données est mesurée.
Sur les quatre SSD NVMe SK hynix PE6011, nous avons mesuré une latence moyenne de 2 ms sur les quatre machines virtuelles. En déplaçant cette même charge de travail vers les quatre SSD SATA SE4011, la latence a atteint une moyenne de 16 ms.
Dans notre charge de travail de base de données finale, nous avons examiné les performances de 8 machines virtuelles. Avec 8 VM, nous en plaçons deux sur chacun des 4 SSD NVMe et une sur chacun des 8 SSD SATA. Dans cette charge de travail, nous mesurons les performances transactionnelles individuelles de chaque machine virtuelle et les regroupons pour obtenir un score total.
Sur les quatre SSD SK hynix PE6011 NVMe, nous avons mesuré un total de 18,525 13.81 TPS avec une latence moyenne de 4011 ms. En déplaçant cette charge de travail vers les huit SSD SK hynix SE13,032 NVMe, l'ensemble mesurait 19.64 XNUMX TPS avec une latence moyenne de XNUMX ms.
SSD SATA vs NVMe – Final Pensées
Lorsque l'on envisage toute forme de stockage, il est essentiel de comprendre les caractéristiques de performance, de coût et de capacité du système considéré. Dans ce cas, nous examinons un portefeuille SSD diversifié de SK hynix, qui est capable de répondre à une offre presque infinie de cas d'utilisation. Étant donné que SK hynix propose des SSD SATA et NVMe, les disques peuvent être exploités de différentes manières. Alors que les SSD NVMe sont clairement rapides, ils ont un prix plus élevé que SATA. D'autre part, les SSD SATA renoncent à la vitesse offerte par NVMe, mais sont plus économiques et profitent toujours de tous les avantages TCO offerts par le flash sur les disques durs. Ainsi, la majorité des entreprises peuvent bénéficier d'une approche flash hybride, combinant les performances de NVMe et les avantages économiques de SATA.
Nulle part cette opportunité n'est plus claire que dans le stockage défini par logiciel et le marché de l'hyperconvergence. La plupart des déploiements SDS et HCI sont conçus pour tirer parti de différentes classes de stockage ; StoreONE, Microsoft Azure Stack HCI et VMware vSAN en sont tous de bons exemples. Dans certains cas, les SSD NVMe peuvent servir de cache ou de niveau devant les disques SATA, qui servent de capacité pour le système. Dans d'autres cas, des pools distincts peuvent être créés, dans ce cas un pool de performances NVMe et un pool SATA pour les charges de travail d'application moins critiques.
Pour illustrer les avantages des deux types de SSD, nous avons testé un groupe de SSD PE6011 NVMe avec des SSD SE4011 SATA dans un Dell EMC PowerEdge R640. Nos principales conclusions montrent que les SSD PE6011 NVMe sont capables de fournir des performances solides et à faible latence sur nos charges de travail synthétiques et applicatives, fournissant plus de 10.7 Go/s de bande passante en lecture. De plus, nos résultats montrent que les SSD SATA SE4011 complètent les SSD NVMe, offrant un niveau de capacité stable dans toutes nos charges de travail, ce qui est une considération importante dans les scénarios de hiérarchisation ou de mise en cache où les données peuvent reposer sur l'un ou l'autre des pools de stockage. Les performances d'écriture sur le groupe SATA SE4011 ont très bien résisté, mesurant 2.8 Go/s sur huit disques, contre 3.6 Go/s sur quatre SSD NVMe PE6011. Au fur et à mesure que les charges de travail disparaissent ou doivent être performantes avant de passer au cache ou à la hiérarchisation, de solides performances d'écriture leur permettent d'offrir une expérience utilisateur cohérente pour une solution de stockage bien équilibrée.
SK hynix a redoublé d'efforts dans le flash d'entreprise au cours de la dernière année et demie, arrivant rapidement sur le marché avec un portefeuille diversifié et intégré verticalement. Cette gamme de produits donne aux clients le choix, pour s'assurer que leurs déploiements fonctionnent comme prévu. Que les disques soient intégrés à une solution SDS, à un cluster HCI ou servent simplement de stockage de serveur, SK hynix est prêt à accompagner ses clients dans cette démarche.
Disques SSD d'entreprise Sk hynix
S'engager avec StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | Flux RSS
Ce rapport est parrainé par SK hynix. Tous les points de vue et opinions exprimés dans ce rapport sont basés sur notre vision impartiale du ou des produits à l'étude.