StorageReview.com

Examen Fusion-io ioDrive Duo Enterprise PCIe

Entreprise  ◇  SSD

Dans le cadre des progrès continus de StorageReview en matière de protocole de test et de développement de laboratoire d'entreprise, nous jetons un regard renouvelé sur les clés USB de première génération que nous avons précédemment examinées. Ces réexamens des premiers périphériques de stockage flash PCIe nous ont donné l'occasion d'affiner et de recalibrer notre processus d'examen d'entreprise avant de déployer de nouveaux examens des cartes de stockage PCIe de deuxième génération et des accélérateurs d'applications. Nous avons passé en revue notre méthodologie de test révisée au cours des derniers mois avec des cartes de première et de deuxième génération fournies par des leaders de l'industrie alors que nous affinons les protocoles de test qui sont plus pertinents pour l'acheteur de stockage d'entreprise. Dans cette revue, nous travaillons à nouveau avec le Fusion ioDrive Duo de 640 Go - cette fois en utilisant des tests plus sophistiqués sur Windows et Linux.

La façon dont l'équipe StorageReview évalue le stockage d'entreprise continue d'évoluer, grâce à la contribution continue des leaders de l'industrie et des partenaires clés. Cette approche collaborative rend les résultats d'examen comme celui-ci encore plus détaillés et pertinents pour l'industrie dans son ensemble. Travailler en étroite collaboration avec les fabricants nous permet d'intégrer en permanence de nouvelles idées de test à nos évaluations et de couvrir des éléments qui pourraient autrement être négligés. Ci-dessous, les lecteurs trouveront plus de 70 graphiques dédiés à l'analyse de l'ioDrive Duo presque jusqu'au point de détail ; et cela n'inclut même pas la nouvelle série de benchmarks au niveau des applications qui sont en cours de développement. Bien que le détail puisse sembler prépondérant pour certains, pour d'autres qui ont besoin d'un kit spécifique pour résoudre un problème de stockage, ces détails sont essentiels. L'intégralité de la critique est publiée ci-dessous sur une seule page, comme toujours, pour la commodité du lecteur.

Avant de plonger dans les performances de l'ioDrive, il est important de souligner quelques-unes des principales différences entre le stockage flash de Fusion-io et un SSD typique. Le flash sur les SSD (comme son nom l'indique correctement Solid State Drive) est caché derrière une interface SATA ou SAS, obscurcissant la NAND pour des raisons de compatibilité. Avec le produit ioDrive, les utilisateurs ont essentiellement accès à un niveau de stockage de mémoire flash, qui offre une latence beaucoup plus faible et de meilleures performances globales qu'un SSD. Les raisons en sont l'architecture et la manière dont l'ioDrive s'interface avec le système hôte.

Là où un SSD PCIe d'entreprise a souvent plusieurs contrôleurs de périphériques de bloc et une puce supplémentaire pour RAID ensemble plusieurs périphériques sur une seule carte, Fusion-io adopte une approche différente de la vie. Fusion ioMemory s'interface avec NAND Flash comme un processeur interagirait avec la mémoire système, cela se fait à l'aide d'une combinaison du contrôleur NAND (FPGA) de Fusion-io, qui communique directement via PCIe, et du pilote Fusion-io ou du logiciel Virtual Storage Layer installé sur le système hôte pour traduire l'appareil en un appareil-bloc traditionnel. Grâce à la couche de stockage virtuelle ou VSL de Fusion-io, le logiciel émule un périphérique de bloc pour la compatibilité, bien que récemment Fusion-io ait publié un SDK qui permet accès natif (contournant la couche de blocage du noyau) dans certaines applications.

IoMemory est également non traditionnel dans le sens où il consomme des ressources système pour que les pilotes VSL fonctionnent, tirant parti du processeur hôte tout en créant une empreinte dans la mémoire système. Selon Fusion-io, cette architecture ressemble plus à l'architecture de la RAM, d'où le nom ioMemory. Les avantages incluent des recherches d'emplacement de fichier plus rapides et même si ioMemory touche le processeur, son utilisation est très efficace et améliore réellement les performances en réduisant la latence transactionnelle. En termes de gestion, un autre avantage de l'architecture de base est que Fusion-io utilise un FPGA comme contrôleur NAND, il permet des mises à jour logicielles/micrologicielles de très bas niveau qui peuvent résoudre les bogues et améliorer les performances. Cela contraste avec les contrôleurs SSD standard, où des modifications fondamentales ne peuvent être apportées qu'en fabriquant un nouveau contrôleur.

Spécifications Fusion-io ioDrive Duo

  • Cellule à un seul niveau (SLC)
    • ioDrive Duo SLC de 320 Go
      • Bande passante en lecture de 1.5 Go/s (64 Ko)
      • Bande passante en écriture de 1.5 Go/s (64 Ko)
      • 261,000 512 IOPS en lecture (XNUMX octets)
      • 262,000 512 IOPS en écriture (XNUMX octets)
      • Latence d'accès 0.026 ms (512 octets)
    • ioDrive Duo SLC de 640 Go
      • Bande passante en lecture de 1.5 Go/s (64 Ko)
      • Bande passante en écriture de 1.5 Go/s (64 Ko)
      • 252,000 512 IOPS en lecture (XNUMX octets)
      • 236,000 512 IOPS en écriture (XNUMX octets)
      • Latence d'accès 0.026 ms (512 octets)
  • Cellule à plusieurs niveaux (MLC)
    • 640 Go ioDrive Duo MLC
      • Bande passante en lecture de 1.5 Go/s (64 Ko)
      • Bande passante en écriture de 1.0 Go/s (64 Ko)
      • 196,000 512 IOPS en lecture (XNUMX octets)
      • 285,000 512 IOPS en écriture (XNUMX octets)
      • Latence d'accès 0.029 ms (512 octets)
    • ioDrive Duo MLC de 1.28 To
      • Bande passante en lecture de 1.5 Go/s (64 Ko)
      • Bande passante en écriture de 1.1 Go/s (64 Ko)
      • 185,000 512 IOPS en lecture (XNUMX octets)
      • 278,000 512 IOPS en écriture (XNUMX octets)
      • Latence d'accès 0.03 ms (512 octets)
  • PCI Express 2.0 x8
  • Compatibilité OS
    • Microsoft : Windows 64 bits Microsoft XP/Vista/Win7/Server 2003/2008/2008 R2
    • Linux : RHEL 5/6 ; SLES 10/11 ; OEL 5/6 ; CentOS 5/6 ; Debian Squeeze ; Fedora 15/16;openSUSE 12; Ubuntu 10/11
    • UNIX : Solaris 10 U8/U9/U10 x64 ; OpenSolaris 2009.06 x64 ; OSX 10.6/10.7, HP-UX* 11i
    • Hyperviseurs : VMware ESX 4.0/4.1/ESXi 4.1/5.0, Windows 2008 R2 avec Hyper-V, Hyper-V Server 2008 R2
  • Température de fonctionnement : 0-55 C
  • Garantie de cinq ans ou endurance maximale utilisée
  • Version VSL révisée : 3.1.1

Concevoir et construire

Le Fusion ioDrive Duo est une carte PCI-Express x8 pleine hauteur et demi-longueur, avec deux ioDimms individuels connectés à la carte d'interface principale. Alors que la carte PCI-Express est mécaniquement un périphérique x8, sur les plates-formes Gen1, elle utilise 8 voies pour la bande passante, tandis que sur les systèmes PCIe Gen2, elle n'a besoin que de 4 voies. Chaque carte représente un périphérique ioMemory unique de 320 Go, utilisant 4 voies de la connexion PCIe. La conception est très compacte et propre, y compris un support de support robuste sur la partie arrière de la carte. Cela aide à renforcer la carte pour qu'elle continue de fonctionner dans des conditions de fonctionnement difficiles et lui donne un bel aspect fini.

Le cœur (ou les cœurs) du ioDrive Duo basé sur MLC sont les deux ioDimms. Chaque ioDimm identique représente un ioDrive, avec son propre FPGA Xilinx Virtex-5 et un pool de 400 Go de MLC NAND. L'ioDrive Duo que nous avons examiné utilisait Samsung NAND, mais Fusion-io est indépendant du fabricant. La NAND est divisée entre 25 puces de 16 Go à double empilement par appareil, avec 320 Go utilisables avec le formatage de stock. Ce ratio place les niveaux de sur-approvisionnement du stock à 20 %, à peu près au même niveau que la plupart des périphériques flash d'entreprise. Fusion-io offre également la possibilité de modifier les niveaux de surapprovisionnement pour permettre une personnalisation et des performances accrues en échangeant la capacité de l'utilisateur contre des activités en arrière-plan.

Du point de vue de la fonctionnalité, les ioDrives incluent tous des voyants d'indication qui indiquent l'état du disque de la mise sous tension à la mise hors tension. Selon les LED actives, il affichera les modes suivants de la carte :

  • Power Off
  • Mise sous tension (pilote non chargé, périphérique non connecté)
  • Mise sous tension (pilote chargé, périphérique non connecté)
  • Activité d'écriture active
  • Activité de lecture active
  • Balise de localisation

Pour une approche plus traditionnelle, l'ioDrive Duo comprend également un branchement standard de la LED d'activité du disque dur. Cette connexion permet une connexion entre le voyant d'activité du disque dur à montage frontal d'un boîtier d'ordinateur et l'ioDrive Duo.

L'ioDrive Duo est refroidi passivement, incorporant trois dissipateurs de chaleur ; conçu pour fonctionner dans un environnement de serveur à refroidissement forcé. Ces dissipateurs thermiques refroidissent un FPGA Xilinx Virtex-5 sur chaque ioDimm ainsi qu'un commutateur PCIe qui interface les deux appareils avec le seul emplacement PCIe. Fusion-io répertorie un débit d'air recommandé de 300LFM, avec une température ambiante inférieure à 55C. Pour éviter tout dommage, l'ioDrive est conçu pour limiter les performances s'il atteint une température interne de 78 °C et s'éteint à 85 °C. Il convient de noter que ces cartes ne sont pas conçues pour un environnement de poste de travail, car les postes de travail n'offrent généralement pas de prise en charge du refroidissement pour les modules complémentaires PCIe dans les configurations de stock. Pour aborder ces marchés, Fusion-io a récemment annoncé l'ioFX, qui est essentiellement un seul ioDimm avec refroidissement actif.

Une autre différence entre les périphériques Fusion "Duo" ioMemory et de nombreuses solutions PCIe concurrentes est qu'ils nécessitent plus de puissance que ce qui est généralement pris en charge par une connexion x8 PCIe 2.0 pour maintenir des performances optimales. La spécification électrique PCIe 2.0 permet de tirer 25 W d'une connexion x8, ce que, dans des conditions d'écriture intensives, les modèles twin-ioDimm tels que l'ioDrive Duo peuvent dépasser. Bien qu'ils soient conformes aux spécifications sans fournir d'alimentation supplémentaire, les performances d'écriture complètes seront limitées. Pour résoudre ce problème Fusion-io propose deux solutions ; l'un nécessite un adaptateur d'alimentation externe, l'autre permet à la carte de tirer plus de 25 watts dans les systèmes qui le prennent en charge. Pour décider quelle option est la plus logique pour une installation, Fusion-io dispose d'un guide de configuration de serveur pour la plupart des serveurs de niveau XNUMX qui fournit des instructions de configuration dans le meilleur des cas.

Pour protéger les données de l'utilisateur, Fusion-io propose deux fonctionnalités clés. Tout d'abord, les produits Fusion-io incluent des fonctionnalités de coupure de courant qui garantissent l'intégrité des données lors de pannes de courant inattendues. Pour les pannes plus rares comme une puce NAND défaillante, un avantage de l'architecture NAND sur les appareils Fusion-io de première génération est leur redondance Flashback, permettant une seule panne NAND sans démonter l'ensemble de l'appareil. Les modèles de deuxième génération offrent Adaptive Flashback, prenant en charge plusieurs défaillances NAND.

Software

Fusion-io ouvre la voie lorsqu'il s'agit d'offrir un large portefeuille de logiciels intuitifs bien polis, que peu de fournisseurs de stockage sont proches d'égaler s'ils fournissent le moindre logiciel. Prêt à l'emploi, Fusion-io propose des utilitaires pour gérer entièrement les périphériques ioMemory dans tous les principaux systèmes d'exploitation via des interfaces graphiques et des applications de console. Les fonctionnalités de gestion couvrent tout, des moyens de gérer facilement le sur-approvisionnement pour gagner en performance en échangeant la capacité des utilisateurs, en passant par la surveillance des statistiques du lecteur, et même les données de diffusion en direct sur ce que fait la carte seconde par seconde. Aucun autre fabricant de stockage PCIe ne se rapproche d'offrir ce niveau de prise en charge de la gestion des disques, et encore moins avec ce niveau de facilité d'utilisation intuitive.


Format de bas niveau ioSphere (surprovisionnement en mode hautes performances)

L'une des fonctionnalités les plus intéressantes du logiciel ioSphere est la possibilité de voir le type d'activité frappant le périphérique ioMemory. Ces informations vont de la bande passante et de l'activité d'E/S à la température actuelle du périphérique, l'endurance restante du périphérique ou même les ressources système utilisées par les pilotes VSL.


Diffusion en direct des performances ioSphere

Pour voir des informations plus détaillées, il existe également une page qui propose l'impression complète des spécifications du périphérique ioMemory actuellement sélectionné. Cela peut aller de la quantité totale d'informations transmises vers ou depuis l'appareil à la consommation électrique actuelle via le bus PCIe.


Informations d'utilisation à vie d'ioShpere

Que vous préfériez une interface graphique ou une interface de console pour obtenir vos informations ou configurer votre ioDrive Duo, Fusion-io propose également une gamme complète d'utilitaires basés sur la console pour tout gérer, de l'interrogation de l'état du lecteur au formatage du lecteur. Tous ces utilitaires sont configurés pour fonctionner sur plusieurs systèmes d'exploitation, quelle que soit la plate-forme utilisée ; vous n'avez pas besoin de charger un système d'exploitation de rechange pour gérer un produit Fusion-io.


État de la ligne de commande Fusion-io (de base)

Contexte des tests et comparables

Lorsqu'il s'agit de tester du matériel d'entreprise, l'environnement est tout aussi important que les processus de test utilisés pour l'évaluer. Chez StorageReview, nous proposons le même matériel et la même infrastructure que ceux que l'on trouve dans de nombreux centres de données auxquels les appareils que nous testons seraient finalement destinés. Cela inclut les serveurs d'entreprise ainsi que les équipements d'infrastructure appropriés tels que la mise en réseau, l'espace rack, le conditionnement/la surveillance de l'alimentation et le matériel comparable de même classe pour évaluer correctement les performances d'un périphérique. Aucun de nos avis n'est payé ou contrôlé par le fabricant de l'équipement que nous testons ; avec des comparables pertinents sélectionnés à notre discrétion parmi les produits que nous avons dans notre laboratoire.

Plate-forme de test d'entreprise StorageReview :

Lenovo Think Server RD240

  • 2 x Intel Xeon X5650 (2.66 GHz, cache de 12 Mo)
  • Windows Server 2008 Standard Edition R2 SP1 64 bits et CentOS 6.2 64 bits
  • Jeu de puces Intel 5500+ ICH10R
  • Mémoire – 8 Go (2 x 4 Go) 1333 Mhz DDR3 enregistrés RDIMM

640 Go Fusion-io ioDrive Duo

  • Sortie : 1S2009
  • Type NAND : MLC
  • Contrôleur : 2 x propriétaire
  • Visibilité de l'appareil : JBOD, RAID logiciel selon le système d'exploitation
  • Fusion-io VSL Windows : 3.1.1
  • Fusion-io VSL Linux 3.1.1

300GB LSI WarpDrive SLP-300

  • Sortie : 1S2010
  • Type NAND : SLC
  • Contrôleur : 6 x LSI SandForce SF-1500 via LSI SAS2008 PCIe vers SAS Bridge
  • Visibilité de l'appareil : RAID0 matériel fixe
  • Windows LSI : 2.10.43.00
  • LSI Linus : pilote natif CentOS 6.2

1.6TB OCZ Z-Drive R4

  • Sortie : 2S2011
  • Type NAND : MLC
  • Contrôleur : 8 x LSI SandForce SF-2200 via OCZ VCA PCIe vers SAS Bridge personnalisé
  • Visibilité de l'appareil : RAID0 matériel fixe
  • Pilote Windows OCZ : 1.3.6.17083
  • Pilote Linux OCZ : 1.0.0.1480

Benchmarks synthétiques standards

Nous avons divisé la partie de test IOMeter synthétique standard de cette revue en deux parties. Le premier est nos tests standard de faible profondeur de file d'attente, qui sont effectués à une profondeur de file d'attente de 4 par travailleur (4 travailleurs au total répartis sur deux gestionnaires). Les tests initiaux sont plus conformes aux environnements mono-utilisateur, tandis que les plages de profondeur de file d'attente plus élevées dans la seconde moitié ressemblent davantage à ce que la carte verrait dans un serveur avec des demandes d'E/S empilées.

Notre premier test examine les vitesses de lecture et d'écriture séquentielles en ligne droite dans une condition de rafale soutenue. Fusion-io répertorie une vitesse de lecture de 1.5 Go/s et une vitesse d'écriture de 1.0 Go/s sur le ioDrive Duo basé sur MLC de 640 Go.

Nous avons mesuré des performances de transfert séquentiel de 1,584 1,045 Mo/s en lecture et XNUMX XNUMX Mo/s en écriture.

Ensuite, nous examinons les transferts aléatoires de gros blocs, avec un transfert de 2 Mo dans IOMeter.

Avec un transfert aléatoire de 2 Mo, l'ioDrive Duo a maintenu une vitesse de lecture de 1,589 1046 Mo/s et une vitesse d'écriture de XNUMX XNUMX Mo/s.

Notre prochain test examine les vitesses de transfert 4K aléatoires à faible profondeur de file d'attente avec quatre travailleurs au total avec une profondeur de file d'attente de 1 chacun.

À une faible profondeur de file d'attente, le Fusion ioDrive Duo offrait les performances les plus élevées, avec des vitesses de 189 Mo/s en lecture et 366 Mo/s en écriture, soit 48,403 93,740 IOPS en lecture et XNUMX XNUMX IOPS en écriture.

Les performances et la latence allant de pair, nous avons examiné la latence moyenne et maximale lors de notre test de transfert aléatoire 4K à faible profondeur de file d'attente. Le Fusion ioDrive Duo a mesuré un temps de réponse moyen de 0.0422 ms avec une réponse maximale de 2.08 ms.

La prochaine moitié de nos benchmarks synthétiques sont des tests progressifs, couvrant les performances depuis les premiers niveaux de profondeur de file d'attente jusqu'à un maximum de 64 par travailleur (QD effectif = 256) ou 128 (QD effectif = 512). Cette section comprend également nos tests de profil de serveur, qui dès le départ sont conçus pour montrer à quel point les produits d'entreprise fonctionnent sous des charges de serveur mixtes exigeantes.

En regardant les performances de lecture 4K aléatoires de l'ioDrive Duo, il a maintenu près de deux fois la vitesse du LSI WarpDrive et de l'OCZ Z-Drive R4 à une profondeur de file d'attente de 1 et 2, le plomb glissant à une profondeur de file d'attente de 4 avant lui a été dépassé par les deux modèles concurrents. Dans ce test, les performances ont dépassé 140,000 64 IOPS en lecture à une profondeur de file d'attente de 120,000, bien qu'elles aient maintenu des vitesses supérieures à 8 XNUMX IOPS à partir d'une profondeur de file d'attente de XNUMX et plus.

En passant à un test d'écriture aléatoire 4K en rampe, l'ioDrive Duo a montré un profil de performances similaire, battant les autres modèles concurrents à des profondeurs de file d'attente inférieures. Dans ce test, les performances de l'ioDrive Duo ont culminé avec une vitesse d'écriture de 224,000 4 IOPS à une profondeur de file d'attente de 201,000, se stabilisant entre 210,000 8 et 64 XNUMX IOPS entre une profondeur de file d'attente de XNUMX à XNUMX.

Notre dernier groupe de benchmarks synthétiques standard examine les performances à l'échelle à l'aide de nos profils de serveur dans IOMeter. Ces tests mesurent les performances d'une profondeur de file d'attente faible à un maximum de 128 par travailleur (QD effectif = 512). Cette section est conçue pour montrer les performances des produits d'entreprise sous différentes charges de travail mixtes exigeantes dans des conditions de pointe. Dans nos charges de travail mixtes axées sur l'entreprise, l'ioDrive Duo est en tête du peloton à une profondeur de file d'attente de 1 et 2, à l'exception du test du serveur de fichiers, puis traîne derrière les autres disques aux profondeurs de file d'attente les plus élevées.

Benchmarks du monde réel de l'entreprise

Notre trace d'entreprise couvre un environnement de serveur de messagerie Microsoft Exchange. Nous avons capturé l'activité de notre serveur de messagerie StorageReview sur une période de plusieurs jours. Ce matériel de serveur se compose d'un Dell PowerEdge 2970 exécutant un environnement Windows Server 2003 R2 fonctionnant sur trois disques durs SAS de 73 Go 10k en RAID5 sur le contrôleur intégré Dell Perc 5/I. La trace se compose de nombreuses petites demandes de transfert, avec une forte charge de lecture de 95 % avec un trafic d'écriture de 5 %.

Étant donné que certains périphériques PCIe nécessitent des charges plus élevées pour atteindre des performances maximales, nous incluons à la fois un profil léger et lourd pour la lecture des traces. En cela, nous limitons la profondeur effective de la file d'attente à 8 dans le profil le plus faible et l'augmentons à 48 dans le profil Heavy.

Avec une profondeur de file d'attente effective limitée à 8, représentant des conditions d'activité plus légères, l'ioDrive Duo offrait les vitesses de transfert les plus élevées dans notre test de lecture de trace de serveur de messagerie avec une vitesse moyenne de 969 Mo/s. Cela se compare à la moyenne de 508 Mo/s du LSI WarpDrive ou de 625 Mo/s du OCZ Z-Drive R4 dans les mêmes conditions. En élargissant la profondeur de file d'attente autorisée à 48, le Z-Drive R4 a pris la première place avec une vitesse moyenne de 1,327 1,227 Mo/s en moyenne, le ioDrive Duo venant ensuite avec une vitesse de 300 830 Mo/s et le WarpDrive SLP-XNUMX à la traîne. avec une vitesse de XNUMX Mo/s.

L'un des compromis entre l'augmentation de la profondeur de la file d'attente pour augmenter les taux de transfert est qu'elle peut affecter les temps de réponse à mesure que les E/S en attente augmentent. Avec une charge légère, l'ioDrive Duo a maintenu sa vitesse de transfert de 969 Mo/s avec un temps de réponse de 0.06 ms. Pour que le Z-Drive R4 le surpasse avec une vitesse de transfert de 1,327 3.5 Mo/s, son temps de réponse a été multiplié par 0.21 à 0.45 ms tandis que le WarpDrive avait une réponse moyenne de 830 ms pour un taux de transfert de XNUMX Mo/s.

Analyse synthétique de la charge de travail d'entreprise (paramètres de stock)

La façon dont nous envisageons les solutions de stockage PCIe va plus loin que la simple analyse des performances traditionnelles en rafale ou en régime permanent. Lorsque vous examinez les performances moyennes sur une longue période, vous perdez de vue les détails des performances de l'appareil sur toute cette période. Étant donné que les performances flash varient considérablement au fil du temps, notre nouveau processus d'analyse comparative analyse les performances dans des domaines tels que le débit total, la latence moyenne, la latence maximale et l'écart type sur l'ensemble de la phase de préconditionnement de chaque appareil. Avec les produits d'entreprise haut de gamme, la latence est souvent plus importante que le débit. Pour cette raison, nous nous efforçons de montrer les caractéristiques de performance complètes de chaque appareil que nous mettons à travers notre Laboratoire de test d'entreprise.

Nous avons également ajouté des comparaisons de performances pour montrer comment chaque périphérique fonctionne sous un ensemble de pilotes différent sur les systèmes d'exploitation Windows et Linux. Pour Windows, nous utilisons les derniers pilotes au moment de l'examen initial, chaque périphérique étant ensuite testé dans un environnement Windows Server 64 R2008 2 bits. Pour Linux, nous utilisons l'environnement CentOS 64 6.2 bits, pris en charge par chaque accélérateur d'application Enterprise PCIe. Notre objectif principal avec ces tests est de montrer en quoi les performances du système d'exploitation diffèrent, car le fait d'avoir un système d'exploitation répertorié comme compatible sur une fiche produit ne signifie pas toujours que les performances entre eux sont égales.

Tous les appareils testés sont soumis à la même politique de test du début à la fin. Actuellement, pour chaque charge de travail individuelle, les appareils sont effacés en toute sécurité à l'aide des outils fournis par le fournisseur, préconditionnés en état stable avec la charge de travail identique avec laquelle l'appareil sera testé sous une charge élevée de 16 threads avec une file d'attente en attente de 16 par thread, et puis testé à des intervalles définis dans plusieurs profils de profondeur de thread/file d'attente pour montrer les performances en cas d'utilisation légère et intensive. Pour les tests avec une activité de lecture à 100 %, le préconditionnement s'effectue avec la même charge de travail, bien qu'il soit basculé sur 100 % d'écriture.

Tests de préconditionnement et d'état stable primaire :

  • Débit (agrégat IOPS lecture + écriture)
  • Latence moyenne (latence de lecture + écriture moyennée ensemble)
  • Latence maximale (latence maximale de lecture ou d'écriture)
  • Écart-type de latence (écart-type de lecture + écriture moyenné ensemble)

À l'heure actuelle, Enterprise Synthetic Workload Analysis comprend quatre profils communs, qui peuvent tenter de refléter l'activité du monde réel. Celles-ci ont été choisies pour avoir une certaine similitude avec nos références passées, ainsi qu'un terrain d'entente pour la comparaison avec des valeurs largement publiées telles que la vitesse de lecture et d'écriture maximale de 4K, ainsi que 8K 70/30 couramment utilisé pour les disques d'entreprise. Nous avons également inclus deux charges de travail mixtes héritées, y compris le serveur de fichiers traditionnel et le serveur Web offrant un large éventail de tailles de transfert. Ces deux derniers seront progressivement supprimés avec des benchmarks d'applications dans ces catégories au fur et à mesure de leur introduction sur notre site, et remplacés par de nouvelles charges de travail synthétiques.

  • 4K
    • 100 % de lecture ou 100 % d'écriture
    • 100% 4K
  • 8K70/30
    • 70 % de lecture, 30 % d'écriture
    • 100% 8K
  • Serveur de fichiers
    • 80 % de lecture, 20 % d'écriture
    • 10 % 512b, 5 % 1k, 5 % 2k, 60 % 4k, 2 % 8k, 4 % 16k, 4 % 32k, 10 % 64k
  • webserver
    • 100 % lu
    • 22 % 512b, 15 % 1k, 8 % 2k, 23 % 4k, 15 % 8k, 2 % 16k, 6 % 32k, 7 % 64k, 1 % 128k, 1 % 512k

En examinant l'activité d'écriture 100 % 4K sous une charge importante de 16 threads et 16 files d'attente sur une période de 6 heures, nous avons constaté que le Fusion ioDrive Duo offrait les vitesses de transfert de pointe les plus élevées dans notre Lenovo ThinkServer RD240. Cela était vrai pour Windows Server 2008 R2 64 bits ainsi que pour CentOS 6.2, qui avait une petite avance sur les performances de Windows. Le suivant était le 1.6 To OCZ Z-Drive R4, mais uniquement sous Windows. Le pilote OCZ pour CentOS 6.2 [1.0.0.1480] ne répondait pas correctement aux demandes de profondeur de file d'attente plus élevée, quel que soit le nombre de threads, et maintenait une vitesse d'environ 7,600 300 IOPS tout au long de cette étape du test. Le suivant était le LSI WarpDrive SLP-XNUMX, qui offrait un débit très similaire sous Windows et Linux.

En regardant la latence moyenne sur la durée de notre test de préconditionnement d'écriture 4K à 100 %, le lecteur le plus rapide et le plus lent était le OCZ Z-Drive R4. Dans un environnement Windows, avec le pilote complètement fonctionnel, la latence moyenne était beaucoup plus rapide que le Fusion ioDrive Duo ou le LSI WarpDrive. Dans un environnement Linux aux performances plutôt médiocres, il était exponentiellement supérieur aux autres appareils de cette catégorie.

En explorant la sortie de latence maximale par intervalle lors du test de préconditionnement d'écriture 4K à 100 %, vous pouvez commencer à voir la taille d'un contrôleur d'impact et de la NAND entrent en jeu dans un environnement d'écriture intensive. Le Fusion ioDrive Duo avec MLC NAND se situe entre le LSI WarpDrive basé sur SLC et le OCZ Z-Drive R4 basé sur MLC en termes de pics de latence maximale. En comparant les performances sous Windows et Linux, nous avons constaté une sortie plus cohérente dans l'environnement Windows par rapport à Linux, avec beaucoup moins de pics, mais pas des pics plus petits. Le Z-Drive R4 basé sur MLC dans Windows avait de gros pics qui ont atterri bien au-dessus de notre échelle de graphique, les performances de Linux étant assez stables, bien que loin d'être lourdement chargées aux faibles performances IOPS. Le LSI WarpDrive a offert ses meilleures performances sous Windows, avec une courbe de latence beaucoup plus plate, bien qu'il ait tout de même enregistré un pic supérieur à 1,000 XNUMX ms.

Lorsque l'on considère les performances de latence maximale d'un produit de stockage particulier, le domaine qui est souvent passé sous silence est le nombre d'E/S parmi les milliers ou les millions qui ont une valeur de réponse élevée. C'est pourquoi il est important de surveiller non seulement la latence maximale pour voir les pics les plus élevés, mais aussi d'examiner l'écart type, qui montre la variation de la latence. Même si un disque a une latence moyenne plutôt faible avec toutes les valeurs moyennes, il peut toujours avoir une quantité assez importante d'E/S qui peuvent être considérées comme inacceptables selon l'application que vous utilisez.

Avec la configuration SLC NAND, le LSI WarpDrive a maintenu un très bon écart type de latence, sa force apparaissant principalement dans un environnement Windows. Le Fusion ioDrive Duo est venu vers la plage supérieure de l'écart type, bien qu'il soit assez cohérent, comme le modèle trouvé dans le WarpDrive. En comparant les performances de son pilote, il était toujours plus rapide sous Linux dans ce test particulier. L'OCZ Z-Drive R4 avait une large plage de latence plus élevée pendant la durée de notre test, bien qu'il ait commencé à s'égaliser parfois une fois qu'il a atteint l'état stable, bien qu'il ait encore eu des périodes de latence élevée à nouveau.

Une fois les tests de préconditionnement terminés, nous avons commencé immédiatement avec notre échantillonnage de test primaire. En régime permanent, le périphérique de stockage PCIe avec le débit le plus élevé de ce groupe était l'OCZ Z-Drive R4 sous Windows. Il a mesuré un pic de 229,811 56,978 IOPS en lecture et une vitesse d'écriture de 140,230 42,644 IOPS. Vient ensuite le Fusion ioDrive Duo, mesurant 300 4 IOPS en lecture et 120,502 35,015 IOPS en écriture. Les performances Windows de l'ioDrive Duo sont juste en dessous de cela, avec une légère baisse des performances en écriture. Le LSI WarpDrive SLP-XNUMX offrait sa vitesse d'écriture XNUMXK la plus élevée sous Windows, mesurant XNUMX XNUMX IOPS en lecture et XNUMX XNUMX IOPS en écriture.

Dans la mesure en régime permanent de la lecture 4K et de l'écriture 4K à charge élevée, l'OCZ Z-Drive R4 avec ses vitesses de débit de pointe sous Windows est arrivé en tête, avec une latence moyenne de 4.49 ms en lecture et de 1.11 ms en écriture. Le Fusion ioDrive Duo est arrivé ensuite avec des vitesses de lecture mesurant 6.00 ms sous Linux et 6.25 ms sous Windows, et 1.82 ms en écriture dans les deux systèmes d'exploitation. Vient ensuite le WarpDrive avec une vitesse de lecture de 7.31 ms sous Windows et de 7.32 ms en lecture sous Linux, avec des vitesses d'écriture de 2.12 ms sous Windows et de 2.71 ms sous Linux.

En ce qui concerne la latence maximale sur la durée d'échantillonnage de notre test à l'état stable, le LSI WarpDrive basé sur SLC s'est classé le plus bas ou le meilleur sous Windows et Linux, suivi du Fusion ioDrive Duo sous Windows en premier avec 426.15 ms de lecture maximale et 170.09 ms. pic d'écriture, puis sous Linux avec un pic de lecture de 1,208 156.91 ms et un pic d'écriture de 4 ms. Sous Windows, l'OCZ Z-Drive R1,889 avait les pics les plus élevés, mesurant 5,299 XNUMX ms en lecture et XNUMX XNUMX ms en écriture sous Windows.

En regardant l'écart type sur la période de notre test de lecture et d'écriture 4K à l'état stable, l'accélérateur d'application PCIe le plus cohérent de notre test 4K pour l'activité de lecture et d'écriture est le LSI WarpDrive sous Windows. Classement par performances d'écriture 4K constantes, l'OCZ Z-Drive R4 sous Windows vient ensuite, suivi du WarpDrive sous Linux, suivi du ioDrive Duo sous Linux, puis du ioDrive Duo sous Windows. Classement par vitesse de lecture toujours rapide, les performances Windows et Linux de l'ioDrive Duo sont arrivées après le WarpDrive basé sur SLC, puis le WarpDrive sous Linux, suivi du Z-Drive R4 sous Windows.

Le prochain test de préconditionnement fonctionne avec une répartition de la charge de travail lecture/écriture plus réaliste, par rapport à l'activité d'écriture à 100 % dans notre test 4K. Ici, nous avons un mélange de 70 % de lecture et 30 % d'écriture de transferts 8K. En examinant notre charge de travail mixte 8K 70/30 sous une lourde charge de 16 threads et 16 files d'attente sur une période de 6 heures, nous avons constaté que le Fusion ioDrive Duo offrait toujours les vitesses de transfert de pointe les plus élevées de notre Lenovo ThinkServer. Cela était vrai pour les environnements Windows Server 2008 R2 64 bits et CentOS 6.2, qui avaient une légère avance sur les performances de Windows. Le suivant était le 1.6 To OCZ Z-Drive R4, mais uniquement sous Windows. Le suivant était le LSI WarpDrive SLP-300, qui offrait des performances supérieures dans un environnement Windows.

En passant à un examen de la latence moyenne dans notre test 8K 70/30, la différence entre les ensembles de pilotes devient plus prononcée. Le Fusion ioDrive Duo avait les performances les plus similaires entre Linux et Windows, bien que le bord du jeu de pilotes Linux soit devenu plus apparent lorsque le disque a atteint un état stable. Le LSI WarpDrive a montré un écart significatif de latence moyenne entre les ensembles de pilotes, le pilote Windows offrant les performances les plus élevées. L'OCZ Z-Drive R4 sous Windows avait la latence moyenne la plus faible du groupe, ce qui allait de pair avec le débit le plus rapide. Cependant, les performances de Linux étaient à nouveau hors des charts, avec une moyenne d'environ 46 ms sous Linux contre 6 ms environ sous Windows.

En regardant les temps de réponse de pointe de l'ioDrive Duo, WarpDrive et Z-Drive R4, bon nombre des mêmes caractéristiques que nous avons vues dans notre test 4K se sont déroulées dans notre charge de travail 8K 70/30 avec une activité de lecture incluse. Dans ce test, le Fusion-io ioDrive Duo a commencé avec la courbe de latence maximale la plus basse, puis a commencé à reprendre un peu après deux heures alors que le lecteur commençait à passer à l'état stable. À cette époque, il se situait au-dessus du WarpDrive sous Windows, qui présentait la courbe la plus basse parmi les lecteurs de ce groupe. En regardant les différences de pilote entre l'ioDrive Duo sous Windows et Linux, le pilote Linux avait des pics plus élevés, bien que vers la seconde moitié du test, il ait maintenu une courbe inférieure (plus rapide). Le Z-Drive R4, en revanche, sous Windows, avait des pics plus élevés, bien que dans l'ensemble, il se soit calmé par rapport à son comportement dans une charge de travail d'écriture à 100 %.

Le profil d'écart type dans notre phase de préconditionnement de la charge de travail 8K 70/30 a montré des différences intéressantes entre les cartes dans leurs performances sur la durée des tests. Alors que le WarpDrive avait systématiquement les temps de réponse les plus rapides sous Windows, ses performances de latence sous Linux laissaient un peu à désirer. L'ioDrive Duo a montré son meilleur visage sous Linux, tandis que l'OCZ Z-Drive R4 a produit un profil d'écart type de latence bien amélioré dans ce test par rapport au test 100K d'écriture à 4 %.

Par rapport à la charge de travail fixe à 16 threads et 16 files d'attente maximales que nous avons effectuée lors du test d'écriture 100 % 4K, nos profils de charge de travail mixtes adaptent les performances à une large gamme de combinaisons thread/file d'attente. Dans ces tests, nous étendons l'intensité de notre charge de travail de 2 threads et 2 files d'attente à 16 threads et 16 files d'attente. Au départ, le profil le plus bizarre est l'OCZ Z-Drive R4 comparant ses performances Windows à ses performances Linux. Aux moments où il est le plus rapide sous Windows, il est le plus lent sous Linux avec un problème de mise à l'échelle de la profondeur de la file d'attente dans le pilote que nous avons testé. Avec une faible profondeur de thread et de file d'attente, l'ioDrive Duo avait une forte avance en termes de performances par rapport aux WarpDrive et Z-Drive R4 alimentés par LSI SandForce. Au fur et à mesure que la profondeur de la file d'attente augmentait, les autres cartes ont pu égaler ou surpasser ses performances. En comparant les environnements de pilotes Windows et Linux, l'ioDrive Duo offrait une quasi-parité des performances sur l'ensemble de la charge de travail.

En comparant la latence d'achèvement moyenne sur une large plage de niveaux variables d'activité de thread et de file d'attente, le WarpDrive a maintenu les temps de réponse les plus bas dans la plupart des cas, jusqu'à ce que le Z-Drive R4 sous Windows le dépasse à des charges de profondeur de file d'attente plus élevées. L'ioDrive Duo offrait des performances presque identiques sous Windows et Linux, avec seulement un petit écart à son niveau de sortie le plus élevé, donnant la tête au jeu de pilotes Linux.

Il était intéressant d'examiner la latence maximale sur notre charge de travail 8K 70/30, car cela montrait que même avec un nombre de threads et de files d'attente inférieur, les disques affichaient toujours des temps de réponse de pointe élevés. L'ioDrive Duo sous Linux a enregistré des pics constants à 1,000 16 ms dans la plupart des charges de travail, tandis que le pilote Windows était beaucoup plus calme. Dans ce test particulier, l'ioDrive Duo sous Windows est arrivé avec les temps de réponse de pointe les plus bas jusqu'à la charge 16T/XNUMXQ, avec le WarpDrive juste derrière.

Bien que les pics élevés occasionnels puissent sembler décourageants, en regardant le tracé de la latence de l'écart type, nous avons constaté un profil de latence beaucoup plus modéré de tous les appareils, à l'exception du Z-Drive R4 sous Linux. Jusqu'aux charges les plus élevées, l'ioDrive Duo sous Windows a conservé l'écart type le plus faible, le pilote Linux suivant légèrement derrière, suivi du WarpDrive puis du Z-Drive R4 sous Windows.

La charge de travail du serveur de fichiers représente un spectre de taille de transfert plus important pour chaque appareil particulier, donc au lieu de s'installer pour une charge de travail statique de 4k ou 8k, le lecteur doit faire face à des demandes allant de 512b à 64k. Dans cette section, le Z-Drive R4 sous Windows s'est démarqué avec les performances les plus élevées en rafale et en régime permanent, suivi du ioDrive Duo. En mode rafale, l'ioDrive Duo sous Windows offrait des vitesses plus élevées, puis basculait avec les performances Linux lorsque le lecteur est entré en état stable. Le WarpDrive est arrivé ensuite, ses performances Windows étant plus élevées en modes rafale et en régime permanent.

En ce qui concerne la latence moyenne par rapport au test de préconditionnement du serveur de fichiers, le Z-Drive R4 détenait une forte avance sur ioDrive Duo et WarpDrive sous Windows. L'ioDrive avait très peu de différence entre les performances Linux et Windows, tandis que le WarpDrive montrait un plus grand écart entre les systèmes d'exploitation.

En regardant la latence maximale au cours de la phase de préconditionnement de chaque lecteur, le LSI WarpDrive a montré une certaine faiblesse avec ses temps de réponse maximum Linux ayant près de 400 ms par rapport à ses temps Windows. Les pics de réponse ioDrive Duo sous Linux étaient plus élevés que Windows, bien que sur la durée du test, la plupart d'entre eux aient été les plus bas du test, alors que le côté Windows n'avait presque pas de pics de latence élevée, bien qu'ils aient flotté plus haut en moyenne. L'OCZ Z-Drive R4 basé sur MLC a oscillé pendant la majeure partie du processus de préconditionnement du serveur de fichiers, avec quelques pics dépassant 10,000 40,000 à XNUMX XNUMX ms pendant la première heure du test.

En examinant l'écart type des appareils exécutés lors de notre test de préconditionnement de serveur de fichiers, la différence la plus surprenante a en fait été trouvée avec le LSI WarpDrive, où son temps de réponse d'E/S Linux a augmenté de manière significative sur la durée du test par rapport à ses performances Windows. L'ioDrive Duo a connu un changement similaire lorsque le lecteur a atteint un état stable, où les deux chemins ont divergé et la réactivité de Windows est devenue moins groupée. Dans l'ensemble, le lecteur avec les meilleures performances dans cette section était le LSI WarpDrive sous Windows, où il a maintenu la courbe d'écart type la plus plate tout au long du test.

Une fois notre processus de préconditionnement terminé sous une charge élevée de 16T/16Q, nous avons examiné les performances du serveur de fichiers sur un large éventail de niveaux d'activité. Le Fusion-io ioDrive Duo a maintenu les performances les plus élevées avec un faible nombre de threads et de files d'attente, n'étant dépassé que par l'OCZ Z-Drive R4 en termes de débit à des niveaux d'E/S exceptionnels plus élevés.

En analysant la latence moyenne sur notre test de charge variable, le Z-Drive R4 est arrivé en tête avec les temps de réponse les plus rapides en moyenne lorsque l'activité a repris dans notre test. Au fur et à mesure que le niveau de file d'attente en suspens augmentait par nombre de threads, la latence de l'ioDrive Duo augmentait du côté Linux, même si le pilote Windows avait un débit légèrement inférieur.

En regardant la latence maximale sur la durée de notre test de serveur de fichiers principal, l'ioDrive sous Linux a toujours montré ses pics plus élevés de 1,000 16 ms à des niveaux de nombre de threads/files d'attente faibles et élevés. Son homologue Windows offrait cependant les temps de réponse maximum constants les plus bas, jusqu'à la charge de travail 16T/XNUMXQ.

Le profil d'écart type du serveur de fichiers de l'ioDrive Duo et de WarpDrive est resté assez serré sous Windows et Linux jusqu'à ce que les profondeurs de file d'attente effectives soient plus élevées. Dans le cas de l'ioDrive Duo, le pilote Linux a conservé un meilleur sang-froid au niveau 16T/16Q, où les performances de Windows se sont dispersées.

Notre dernière charge de travail est plutôt unique dans la façon dont nous analysons la phase de préconditionnement de la version de test de la sortie principale. En tant que charge de travail conçue avec une activité de lecture à 100 %, il est difficile d'afficher les véritables performances de lecture de chaque appareil sans une étape de préconditionnement appropriée. Pour maintenir la charge de travail de conditionnement identique à la charge de travail de test, nous avons inversé le modèle pour qu'il soit à 100 % en écriture. Pour cette raison, les graphiques de préconditionnement sont beaucoup plus spectaculaires que les chiffres de la charge de travail finale. Dans ces conditions difficiles, l'OCZ Z-Drive R4 a maintenu le débit le plus élevé de la rafale à l'état stable, le ioDrive Duo venant ensuite et le WarpDrive en troisième position.

La latence moyenne sur le processus de préconditionnement du serveur Web en écriture à 100% a montré que l'ioDrive Duo sous Linux avait l'avantage avec des temps de réponse légèrement inférieurs à ceux du jeu de pilotes Windows. Le LSI WarpDrive a montré à peu près le même temps de réponse moyen, tandis que le Z-Drive R4 avait un écart énorme entre les performances de Windows et de Linux.

En regardant la latence maximale dans la courbe de préconditionnement du serveur Web, le Z-Drive R4 avait les pics les plus élevés, mais une fois stabilisé, il maintenait moins de pics de latence élevée. En regardant l'ioDrive Duo, alors que ses performances Linux avaient l'avantage en termes de débit et de temps de réponse moyens, il avait certains des pics les plus élevés de ce test, poussant plus de 1,200 300 ms, alors que le pilote Windows était beaucoup plus calme avec ses pics généralement dans le Plage de 400 à 1,600 ms (sauf pour un gros pic à plus de XNUMX XNUMX ms).

Le LSI WarpDrive basé sur SLC a maintenu le profil d'écart type le plus bas pendant la durée du processus de préconditionnement du serveur Web dans Windows, suivi par le Z-Drive R4 une fois qu'il s'est calmé, suivi à nouveau par le WarpDrive avec son pilote Linux, puis par le ioDrive Duo sous Linux puis Windows.

Revenant à une charge de travail de serveur Web à 100 % de lecture après le processus de préconditionnement, l'OCZ Z-Drive R4 offrait définitivement les performances les plus élevées dans une performance Windows, avec plus du double de la vitesse de débit à son maximum. Dans le même temps, il contrastait avec ses performances Linux, qui étaient les plus lentes aux mêmes points où il offrait les performances les plus élevées sous Windows. Avec les plus petites charges de travail, l'ioDrive Duo est revenu avec les vitesses les plus rapides, bien qu'il ait été rapidement dépassé par le Z-Drive R4 une fois que la profondeur effective de la file d'attente a augmenté.

L'ioDrive Duo et WarpDrive sont restés proches l'un de l'autre dans le test de latence moyenne du serveur Web, bien que les deux aient été facilement battus par le R4 sous Windows.

Il était quelque peu surprenant de voir certains des pics de latence les plus élevés dans la plage de 1,000 XNUMX ms rester dans le test du serveur Web à lecture intensive, bien que si le comportement est le plus observé sur l'ioDrive Duo sous Linux, il a été noté sur les trois appareils à différents points du test.

Le tracé de l'écart type de l'activité du serveur Web a montré que l'ioDrive Duo avait des temps de réponse toujours plus élevés à des taux de profondeur de file d'attente plus élevés, avec un pic à 16T/16Q. C'était alors que les performances de Windows restaient serrées jusqu'aux charges de travail les plus élevées. Le LSI WarpDrive a maintenu un profil assez plat, jusqu'à la fin du côté Linux où la latence a commencé le flottement.

Analyse synthétique de la charge de travail d'entreprise (mode hautes performances)

Sur les trois accélérateurs d'applications PCIe de cette revue, seul le Fusion-io ioDrive Duo offre une méthode pour modifier la taille du secteur ou l'espace formaté visible par l'utilisateur pour des performances accrues. Bien qu'il soit possible de partitionner une partie du disque et de ne pas l'utiliser avec les autres produits, ce processus n'est pas aussi intuitif. Certains ne sont même pas conscients des implications lorsqu'il s'agit d'échanger des capacités contre des gains de performance.

Alors que la majorité de cet examen était centrée sur les capacités de stock de l'ioDrive Duo, cette partie restante revisite notre nouvelle analyse de charge de travail synthétique pour voir comment les performances diffèrent entre le mode haute performance et la configuration de stock. Avec une taille de stock de 320 Go par appareil, l'ioDrive Duo a un niveau de surprovisionnement de 20 % entre RAW NAND et visible par l'utilisateur. Le formatage de l'ioDrive Duo en mode hautes performances réduit cette capacité à 256 Go, soit un surapprovisionnement de 36 %, ce qui ramène la capacité totale de 640 Go à 512 Go. Alors que vous négociez une bonne quantité de capacité disponible, nous avons été surpris de voir à quel point cela affecterait les performances en régime permanent. Dans certains cas, les performances ont plus que doublé.

Avec l'ioDrive Duo mis en mode hautes performances, les vitesses d'écriture en rafale 4K 100% sont restées à peu près les mêmes à ~ 257k IOPS, mais la différence de performances en régime permanent est spectaculaire. Alors que l'ioDrive Duo en configuration d'origine maintenait des vitesses de débit de 41 à 42 90,000 IOPS vers la fin de la phase de préconditionnement, le mode haute performance a porté des niveaux jusqu'à environ 2 XNUMX IOPS. C'est plus qu'un saut XNUMXx en sacrifiant une certaine capacité utilisateur.

Allant de pair avec un débit plus rapide, la latence a également diminué de moitié dans l'étape de préconditionnement d'écriture 4K.

Lorsque l'on regarde le profil de latence maximale du test de préconditionnement d'écriture 4K, bon nombre des mêmes caractéristiques sont restées, bien que cette fois-ci beaucoup plus faibles. La latence de Windows 4K était légèrement plus élevée à l'origine, bien qu'elle ait eu moins de pics de latence élevés observés dans l'environnement Linux. Lorsque le disque a été formaté en mode hautes performances, le profil Windows avait encore plus de gigue, mais le profil Linux avait un meilleur sang-froid et n'avait pas les pics de latence élevée vus précédemment.

Le graphique le plus révélateur montrant l'amélioration spectaculaire de l'ioDrive Duo en mode haute performance est le profil d'écart type de latence. Avec l'augmentation de l'espace pour l'activité GC en arrière-plan, sous une charge d'écriture complète de 4K à 100 %, l'écart type est passé de 25-30 ms à 2-5 ms.

En comparant nos scores de lecture et d'écriture 4K à 100 % à l'état stable entre les modes stock et hautes performances, nous n'avons constaté aucune augmentation des performances de lecture. Ce n'est pas si rare, car le surprovisionnement n'améliore généralement que les vitesses d'écriture en régime permanent, sans impact sur les vitesses de lecture ou d'écriture en rafale. Dans ce cas, les performances de lecture 100% 4K sont restées à un peu plus de 140,000 40.9 IOPS, avec des performances d'écriture en régime permanent passant de 42.6-90.4K à 91-XNUMXK IOPS.

L'amélioration de la latence d'écriture 4K que nous avons initialement observée dans la phase de préconditionnement était en moyenne de 2.80 à 2.82 ms sur le mode haute performance ioDrive Duo, contre 6 à 6.25 ms en mode stock.

Même si nous n'avons pas mesuré de diminution notable du temps de réponse moyen en lecture 4K ni d'augmentation du débit, l'ioDrive Duo configuré hautes performances offrait des réponses de lecture de pointe beaucoup plus faibles. Les temps de réponse en écriture 4K de pointe ont également diminué de manière spectaculaire.

La différence d'écart type entre les deux modes de sur-approvisionnement était le jour et la nuit, le ioDrive Duo hautes performances mesurant 1.70-1.76 ms contre 25.6-31.6 ms auparavant.

Alors que la hausse des performances en écriture 4K aléatoire était impressionnante, nous étions plus intéressés de voir comment l'ioDrive Duo changerait dans une charge de travail mixte avec une activité de lecture ajoutée au mélange. Dans notre test de préconditionnement 8K 70/30, le débit a considérablement augmenté, passant de la plage 51-53k IOPS avant environ 76K IOPS en mode haute performance. Les vitesses de rafale étaient assez similaires entre les configurations de formatage, bien que l'ioDrive Duo sur-approvisionné ait commencé à tomber plus rapidement dans un état stable.

En regardant la latence dans notre charge de travail 8K 70/30, fini les différences modérées entre le pilote Linux et Windows sur l'ioDrive Duo en mode haute performance. La latence moyenne a chuté de manière significative et est restée très constante au cours du processus de préconditionnement.

Bien que les améliorations du débit et de la latence moyenne soient importantes, la latence maximale est un autre facteur auquel il faut prêter attention lors de la modification de la configuration de l'ioDrive Duo. Dans ce cas, l'espace supplémentaire surdimensionné a donné au disque suffisamment d'espace en arrière-plan pour supprimer la plupart des sauts de latence maximale que nous avons vus dans la configuration de pointe. Cela dit, ils n'étaient pas entièrement partis, mais la majeure partie de l'activité est tombée à des niveaux beaucoup plus bas.

En regardant l'écart type de latence, vous pouvez voir l'image complète de l'impact que peut avoir l'ioDrive Duo sur un espace de surapprovisionnement supplémentaire. L'écart type a diminué d'un facteur 5, restant à environ 2 ms tout au long du processus de préconditionnement, contre 8 à 12 ms auparavant.

L'ioDrive Duo a continué à montrer des avantages en termes de performances à tous les niveaux lors de nos principaux tests de débit où nous varions la charge entre 2T/2Q et 16T/16Q.

En examinant les différences de latence moyenne dans notre charge de travail 8K 70/30 comparant le stock ioDrive Duo aux modes hautes performances, la différence était plus notable au niveau des profondeurs de file d'attente plus élevées à chaque nombre de threads.

Comme nous l'avons vu lors de l'étape de latence maximale du test de préconditionnement 8K 70/30, bon nombre des mêmes pics élevés sont restés pendant toute la durée du test, bien qu'ils soient moins nombreux.

En comparant l'écart type de latence à tous les niveaux, le surprovisionnement a eu un impact plus important sur certaines charges de profondeur de file d'attente accrues, tandis que des zones telles que 8T/16Q n'ont vu aucun changement.

Le Fusion ioDrive Duo n'a pas vu autant d'amélioration du débit total en augmentant la quantité de sur-approvisionnement. Les performances ont encore augmenté, bien que l'augmentation ait été modeste, par rapport au bond spectaculaire constaté dans l'écriture 100 % 4K ou la charge de travail 8K 70/30 %.

La latence moyenne sur la durée du test de préconditionnement du serveur de fichiers est passée d'environ 7-7.5 ms à un peu plus de 6 ms alors que l'ioDrive Duo s'approchait des performances à l'état stable.

Même si le Fusion ioDrive Duo n'a pas vu d'amélioration spectaculaire du débit ou de la latence moyenne, il a pu supprimer bon nombre des pics de latence élevée trouvés dans la configuration de surapprovisionnement des stocks. La plus grande amélioration s'est produite avec le pilote Windows, qui a maintenu un plafond de latence de pointe d'environ 50 à 75 ms en état stable par rapport à la plage de 225 à 250 ms auparavant.

En analysant l'écart type de latence dans le test de préconditionnement du serveur de fichiers, le surprovisionnement accru a maintenu le flottement au minimum une fois que le disque s'est approché de l'état stable. L'écart type de latence de Linux ne s'est pas beaucoup amélioré, mais l'écart type de Windows est passé de 12-14 ms à un peu moins de 3 ms.

L'augmentation du surprovisionnement du Fusion ioDrive Duo a permis à la carte d'augmenter ses performances d'environ 5,000 XNUMX IOPS sur la plupart des combinaisons de threads et de profondeur de file d'attente, avec la plus forte augmentation pour les charges de profondeur de file d'attente plus élevées.

La latence a été améliorée dans les deux domaines, le Fusin ioDrive Duo sous Windows obtenant la plus grande amélioration à la charge 16T/16Q, passant du plus lent au plus rapide.

En comparant la latence maximale de la charge de travail du serveur de fichiers, l'ioDrive Duo s'est considérablement calmé sous Linux, perdant bon nombre de ses pics de 1,000 1,000 ms d'avant. Cette fois-ci, il n'y avait qu'un seul pic de XNUMX XNUMX ms dans le test Windows.

L'écart type à tous les niveaux a chuté considérablement, montrant à quel point l'ioDrive Duo s'est calmé avec l'augmentation du surapprovisionnement.

Bien que notre courbe de préconditionnement du serveur Web ne soit pas la meilleure représentation de l'activité du serveur Web, en fait c'est le contraire à 100 % d'écriture, elle montre tout de même l'impact que peut avoir un surprovisionnement accru. Le débit total a considérablement augmenté, dépassant même l'OCZ Z-Drive R4.

La latence moyenne sur la durée de notre test de préconditionnement du serveur Web a été réduite de moitié, passant de plus de 20 ms auparavant à un peu plus de 10 ms en mode hautes performances.

Presque tous les pics de latence élevée ont été supprimés avec un surapprovisionnement accru, les performances de Linux s'améliorant le plus.

L'écart type de latence s'est considérablement amélioré sur la durée de la section de préconditionnement du serveur Web, avec le plus grand changement du côté Linux avec la courbe presque plate par rapport aux performances du stock.

En rebasculant le profil du serveur Web sur 100 % de lecture, nous n'avons constaté que peu ou pas d'amélioration de la vitesse de débit entre les stocks et une augmentation du surprovisionnement dans cette charge de travail particulière. Ce n'est pas surprenant cependant, car le sur-provisionnement ne profite vraiment qu'aux performances liées à l'écriture.

La latence moyenne était presque identique dans tous les domaines, montrant peu de signes d'amélioration avec un surapprovisionnement supplémentaire.

Bien que le débit et la latence moyenne ne se soient pas améliorés, les temps de réponse à latence élevée ont complètement disparu dans ce profil de serveur Web 100 % lu lorsque les niveaux de surprovisionnement ont augmenté.

Semblable à la diminution de la latence maximale dans notre profil de serveur Web avec l'ioDrive Duo en mode haute performance, l'écart type de latence a également chuté considérablement dans notre test Linux, tandis que le test Windows a enregistré des améliorations minimes.

Conclusion

Lorsque vous jetez un regard renouvelé sur l'ioDrive Duo, plusieurs choses se démarquent. Étant donné que Fusion-io a été l'un des premiers pionniers de cette itération particulière de la technologie de stockage et qu'ils possèdent plusieurs éléments de propriété intellectuelle clés autour du stockage, il ne devrait pas être si surprenant que l'ensemble soit si serré, mais le niveau de précision est digne de crédit. Ce n'est pas seulement la précision en termes de performances, qui même en tant que technologie de génération précédente, elle fonctionne bien. Mais la précision en termes de sensation raffinée partout, de l'emballage à l'interface logicielle en passant par des performances constantes sur bon nombre de leurs plates-formes prises en charge, y compris les versions de Windows et Linux que nous avons testées. Bien que le logiciel ioDrive Duo actuel ait été mis à jour plusieurs fois depuis sa sortie initiale, étant donné que le lecteur est sorti début 2009, il montre très peu d'âge.

Pour un lecteur basé sur MLC, l'ioDrive Duo résiste très bien au LSI WarpDrive basé sur SLC qui pourrait être considéré comme son concurrent le plus proche. En tant que produits conçus spécifiquement pour le segment Enterprise Application Acceleration, les deux modèles excellent avec de lourdes charges de travail sur plusieurs plates-formes de système d'exploitation. Dans presque tous les tests, l'ioDrive Duo a offert des performances constantes, bien qu'en termes de latence maximale, le WarpDrive avec son SLC-NAND se soit mieux comporté que notre ioDrive Duo de 640 Go équipé de MLC. En le comparant à l'OCZ Z-Drive R4 basé sur MLC, il était facile de voir comment ces deux produits sont conçus pour des marchés très différents. Le Z-Drive offrait une vitesse et une capacité élevées grâce à une NAND grand public à moindre coût et à des contrôleurs de nouvelle génération, mais sa latence maximale et son écart type étaient plus incohérents que l'ioDrive Duo ou WarpDrive. Les points forts des Z-Drives étaient davantage du côté de la lecture intensive, tandis que ioDrive Duo et WarpDrive ont trouvé leur place dans un environnement à forte écriture. Pour les déploiements en dehors de Windows, où ioDrive Duo et WarpDrive offraient tous deux des performances similaires sous Linux, les performances du Z-Drive R4 contrastaient fortement avec ses scores Windows, affichant des performances exponentiellement plus lentes.

Bien sûr, la capacité de stockage ioDrive Duo n'est pas sans faiblesses, comme en témoignent ses fréquents sauts de 1,000 300 ms dans les tests de profondeur de file d'attente faible et élevée lorsqu'il est en régime permanent. Compte tenu de l'écart type constant, bon nombre de ces échappées étaient des événements ponctuels, au lieu d'atteindre systématiquement des taux de réponse plus élevés. Un autre sujet de préoccupation mineur pourrait être trouvé en fonction de la plate-forme, car Linux avait tendance à être le point fort de ce produit, même s'il n'a que légèrement dépassé ses performances Windows. En fin de compte, cependant, ces problèmes de latence n'apparaîtraient probablement pas dans le ioDrive Duo basé sur SLC, qui pourrait être considéré comme un concurrent plus proche du LSI WarpDrive, qui n'est disponible que dans une configuration SLC de XNUMX Go.

Lorsque nous avons testé l'ioDrive Duo dans son mode hautes performances, qui a fait chuter la capacité formatée de 256 Go à 320 Go par ioDimm, les performances ont plus que doublé dans certains cas. Les performances d'écriture aléatoire 4K sont passées de 40,000 90,000 IOPS à XNUMX XNUMX IOPS et, en même temps, la latence maximale a chuté comme un roc. Pour les utilisateurs d'entreprise désireux d'échanger de la capacité au nom de la vitesse et de la faible latence, Fusion-io offre un moyen simple pour l'utilisateur final d'effectuer ces modifications. Aucune des solutions PCIe concurrentes n'offre ce type de configuration de performances, à moins que vous ne souhaitiez partitionner manuellement l'espace utilisateur et laisser une section inutilisée, ce qui pourrait ne pas être réalisable dans toutes les applications.

Avantages

  • Intégration la plus étroite des logiciels et du matériel de tous les fournisseurs d'accélérateurs d'applications PCIe
  • Parité de performances la plus proche entre les pilotes Windows et Linux
  • Excellent débit et latence en mode stock qui s'améliorent encore en mode hautes performances
  • Performances élevées en file d'attente faible/nombre de threads réduit

Inconvénients

  • L'installation et la configuration initiale peuvent être plus difficiles que d'autres solutions (alimentation externe requise, pas de prise en charge intégrée du pilote de système d'exploitation)
  • Nécessite plus de ressources système avec l'empreinte VSL utilisée pour présenter l'ioDrive en tant que niveau de mémoire

Conclusion

Du point de vue de la facilité d'utilisation, l'ioDrive Duo établit la norme en matière de présentation d'un accélérateur d'application PCIe à l'utilisateur final. Quel que soit le système d'exploitation utilisé, l'expérience est presque identique, jusqu'aux outils de gestion de l'interface graphique et de la console fournis. Dès le premier jour, l'utilisateur peut s'asseoir, quel que soit le système d'exploitation, et obtenir l'état du matériel de l'ioDrive Duo, le formater ou le surprovisionner à sa guise, et le mettre en production. L'ioDrive Duo est une offre complète plus raffinée que toute autre sur le marché du stockage d'entreprise.

Page produit Fusion-io Duo

Discutez de cet avis

Mises à jour 8/17/12 - Notre Examen du LSI Nytro WarpDrive a été publié et ajouté aux tableaux utilisés dans cette revue Fusion-io.

S'engager avec StorageReview

Inscrivez-vous à notre infolettre |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Kevin O'Brien

À l'intérieur du laboratoire StorageReview, évaluant les produits et travaillant avec les leaders de l'industrie pour développer de nouveaux environnements de test. À la maison, j'élève une famille.