StorageReview.com

Dell PERC13 transforme le RAID matériel NVMe pour l'ère de l'IA

Entreprise  ◇  Adaptateurs de stockage

Le contrôleur RAID Dell H975i, issu de la série PERC13, représente la plus importante avancée de l'entreprise en matière de RAID matériel depuis plus de dix ans. Si Dell a régulièrement mis à jour sa gamme PERC, celles-ci étaient essentiellement incrémentielles, axées sur le réglage des contrôleurs et l'amélioration de la bande passante au fur et à mesure de l'évolution des générations PCIe. Cependant, l'architecture sous-jacente restait liée aux technologies SATA et SAS, qui ont défini le RAID d'entreprise pendant des années. Le PERC H975i rompt définitivement ce cycle. Basé sur la gamme de chipsets SAS51xx de Broadcom, ce contrôleur marque une transition décisive vers une conception axée sur le flash et le NVMe natif. En prenant exclusivement en charge les disques NVMe et en éliminant la prise en charge des technologies HDD et SATA traditionnelles, le H975i intègre une approche avant-gardiste de l'infrastructure de stockage, optimisée pour les exigences de hautes performances et de faible latence des charges de travail modernes, gourmandes en données et axées sur l'IA.

À retenir

  • RAID NVMe Flash-first : Le PERC13 H975i s'éloigne entièrement de SAS/SATA, construit sur Broadcom SAS51xx pour une architecture native NVMe et prête pour l'IA.
  • Grand saut générationnel : Le PCIe Gen5 x16 avec jusqu'à 16 disques NVMe par contrôleur (32 avec deux) a fourni 52.5 Go/s et 12.5 M IOPS par contrôleur lors des tests, avec des gains par rapport au PERC12, notamment +88 % de bande passante en lecture, +318 % de bande passante en écriture, +31 % d'IOPS en lecture 4K et +466 % d'IOPS en écriture 4K.
  • Ajustement du serveur d'IA : La conception intégrée à l'avant libère les emplacements PCIe arrière pour les GPU, raccourcit les exécutions MCIO et permet un canal de stockage dédié par accélérateur pour un débit plus stable et plus déterministe sans surcharge du processeur.
  • Résilience sous stress : Le cache protégé par un supercondensateur et les reconstructions plus rapides réduisent le temps jusqu'à 10 min/Tio tout en maintenant des performances élevées pendant les reconstructions (jusqu'à 53.7 Go/s en lecture, 68 Go/s en écriture, 17.3 M/5.33 M 4K IOPS).
  • Sécurité de bout en bout : Racine de confiance matérielle, identité de périphérique SPDM et cryptage à spectre complet qui couvre les lecteurs, les données en vol et le cache du contrôleur.

Le PERC H975i offre des performances et des innovations architecturales inégalées. S'appuyant sur une interface hôte PCIe Gen 5 x16 et prenant en charge jusqu'à 16 disques NVMe (32 disques NVMe par système avec deux contrôleurs), le H975i a atteint lors de nos tests un débit maximal remarquable de 52.5 Go/s et 12.5 millions d'IOPS par contrôleur. Cela représente une multiplication par près de deux des performances dans toutes les catégories clés par rapport au PERC2, qui atteignait 12 millions d'IOPS et 6.9 Go/s de débit. Au-delà des performances brutes, le PERC27 intègre un mécanisme de protection du cache par supercondensateur (remplaçant les systèmes traditionnels alimentés par batterie), garantissant l'intégrité des données sans compromettre la fiabilité opérationnelle. S'appuyant sur les fonctionnalités de sécurité de son prédécesseur, le H13i étend désormais les capacités de chiffrement à spectre complet, chiffrant les données dans le cache et offrant une protection complète, en transit comme au repos.

Le PERC H975i se présente comme un accélérateur de stockage spécialement conçu pour répondre aux exigences de calcul sans précédent des charges de travail d'IA. Il offre à la fois une densité et des performances élevées, ainsi qu'un stockage à faible latence sans surcharge CPU. En pratique, l'association d'une carte RAID PCIe Gen5 capable de saturer une interface x16 avec un GPU Gen5 confère à chaque accélérateur son propre pipeline de stockage dédié. Cela simplifie la topologie PCIe/NUMA, prévient les effets de voisinage bruyant et isole les tâches de reconstruction ou d'arrière-plan du domaine d'E/S du GPU concerné.

En adaptant cette architecture à deux cartes RAID et deux GPU, vous préservez des performances linéaires tout en évitant les conflits sur les voies partagées ou les caches. Il en résulte une bande passante d'entrée plus stable pour l'entraînement et l'inférence gourmands en données (lots volumineux, remaniements rapides, lectures rapides des points de contrôle), avec des distributions de latence plus serrées sous charge et lors des reconstructions. Cette architecture ne se contente pas d'augmenter les valeurs de pointe ; elle rend le débit plus déterministe, ce qui est précisément ce dont les serveurs d'IA multi-GPU ont besoin pour maintenir une utilisation élevée.

Spécifications des Dell PERC12 H965i et PERC13 H975i

Fonctionnalité PERC12 H965i Avant PERC13 H975i Avant
Niveaux de RAID 0, 1, 5, 6, 10, 50, 60 0, 1, 5, 6, 10, 50, 60
Non RAID (JBOD) Oui Oui
Type de bus hôte PCIe Gen4x16 PCIe Gen5x16
Gestion des bandes latérales I2C, PCIe VDM I2C, PCIe VDM
Boîtiers par port N'est pas applicable N'est pas applicable
Processeur/jeu de puces RAID sur puce Broadcom, SAS4116W RAID sur puce Broadcom, SAS5132W
Pack d'énergie / Alimentation de secours Batterie Supercondensateur
Sécurité de la gestion des clés locales Oui Oui
Gestionnaire de clés d'entreprise sécurisé Oui Oui
Profondeur de la file d'attente du contrôleur 8,192 8,192
Cache non volatile Oui Oui
Mémoire cache 8 Go DDR4 3200 MT/s Cache RAID intégré
Fonctions de cache Écriture différée, lecture anticipée, écriture directe, toujours écriture différée, pas de lecture anticipée Écriture différée, écriture directe, toujours écriture différée, pas de lecture anticipée
Disques virtuels complexes maximum 64 16
Nombre maximal de disques virtuels simples 240 64
Nombre maximal de groupes de disques 64 32
Nombre maximal de disques virtuels par groupe de disques 16 8
Nombre maximal de périphériques de secours 64 8
Périphériques remplaçables à chaud pris en charge Oui Oui
Configuration automatique (principal et exécution unique) Oui Oui
Moteur XOR matériel Oui Oui
Extension de capacité en ligne Oui Oui
Disque de secours dédié et global Oui Oui
Types de lecteur pris en charge NVMe Gen3 et Gen4 NVMe Gen3, Gen4 et Gen5
Taille de l'élément de bande VD 64KB 64KB
Prise en charge NVMe PCIe Gen4 Gen5
Configuration maximale des disques NVMe 8 lecteurs par contrôleur 16 lecteurs par contrôleur
Tailles de secteur prises en charge 512B, 512e, 4Kn 512B, 512e, 4Kn
Prise en charge du démarrage du stockage UEFI uniquement UEFI uniquement

Le contrôleur frontal PERC13 H975i des serveurs Dell PowerEdge est conçu pour une intégration transparente à l'architecture système. Contrairement aux cartes d'extension traditionnelles qui occupent les emplacements PCIe arrière, le H975i se connecte directement au fond de panier du disque avant et s'interface avec les connecteurs MCIO avant de la carte mère via des interfaces PCIe 5.0 dédiées. Cette conception intégrée préserve les emplacements PCIe arrière pour les GPU hautes performances et les extensions PCIe supplémentaires, tout en réduisant considérablement la longueur des câbles. Cela contribue à préserver l'intégrité du signal, rendant le système plus fiable et plus facile à entretenir. Il en résulte une configuration interne plus épurée et une meilleure circulation de l'air pour les déploiements denses et gourmands en ressources de calcul.

carte Dell Perc13

Le H975i implémente une architecture de sécurité complète, allant de l'attestation matérielle au niveau du silicium au chiffrement intégral des données, mis en place avec les disques SED. La racine de confiance matérielle (HRC) établit une chaîne immuable de vérification cryptographique, de la ROM de démarrage interne à chaque composant du micrologiciel, garantissant ainsi que seuls les micrologiciels certifiés Dell authentifiés peuvent s'exécuter sur le contrôleur. Cette sécurité matérielle s'étend à l'implémentation du protocole SPDM (Security Protocol and Data Model), où chaque contrôleur contient un certificat d'identité de périphérique unique permettant à l'iDRAC d'effectuer une vérification d'authentification en temps réel. Le contrôleur étend la protection cryptographique au-delà des scénarios traditionnels de données au repos, en incluant la mémoire cache. Il conserve les clés de chiffrement dans des zones mémoire sécurisées, inaccessibles aux micrologiciels non autorisés. Ainsi, les données sensibles restent protégées, qu'elles soient stockées sur les disques ou traitées activement dans le cache.

Dell Perc13, vue de dessus du serveur

La protection de l'alimentation du H975i constitue une autre évolution significative par rapport aux systèmes traditionnels alimentés par batterie grâce à l'intégration d'un supercondensateur. Ce dernier assure une alimentation instantanée en cas de coupure de courant imprévue, garantissant un vidage complet et chiffré du cache vers un stockage non volatile, où les données restent protégées indéfiniment. De plus, contrairement aux systèmes alimentés par batterie qui nécessitent 4 à 8 heures pour les cycles d'apprentissage, le supercondensateur du H975i effectue son cycle d'apprentissage transparent en 5 à 10 minutes sans dégradation des performances lors de l'étalonnage. Cette conception élimine les frais de maintenance et les problèmes de dégradation inhérents aux solutions sur batterie, tout en offrant une fiabilité supérieure pour la protection des données critiques.

Surveillance et gestion intégrées

Le contrôleur RAID PERC13 de Dell, comme de nombreuses solutions RAID de Dell, peut être géré et surveillé de nombreuses manières, notamment lors du démarrage de la plate-forme via la configuration du système dans le BIOS, via l'interface graphique Web iDRAC, l'utilitaire PERC12 et même l'interface utilisateur et la CLI Dell OpenManage.

Gestion du contrôleur iDRAC

Dans l'interface de gestion iDRAC, l'onglet « Contrôleurs » offre un aperçu du matériel de stockage du serveur. À côté de la carte BOSS, vous trouverez les deux contrôleurs PERC H975i, ainsi que des informations sur les versions du firmware, la mémoire cache et l'état de la batterie. Ce résumé vous permet de vérifier rapidement l'état de préparation et la configuration des contrôleurs sans avoir à accéder au BIOS ni à utiliser d'outils CLI.

L'onglet « Disques virtuels » d'iDRAC affiche les baies de stockage créées, y compris leur niveau RAID, leur taille et leur politique de mise en cache. Ce système répertorie deux groupes RAID-10, tous basés sur des SSD. Depuis cette vue, les administrateurs peuvent vérifier la connexion des volumes, créer de nouveaux disques virtuels ou utiliser le menu Actions pour ajuster ou supprimer les configurations existantes.

Utilitaire de configuration du contrôleur RAID

L'image ci-dessus montre un exemple d'accès à l'utilitaire de configuration avant PERC H975i sur la plateforme PowerEdge R7715. Cette interface vous permet de gérer tous les paramètres clés du contrôleur RAID, notamment la gestion de la configuration, la gestion des contrôleurs et des périphériques. Cet utilitaire simplifie la configuration des disques virtuels et la surveillance des composants matériels directement pendant le démarrage de la plateforme.

Après avoir sélectionné le niveau RAID, nous passons au choix des disques physiques pour la matrice. Dans cet exemple, tous les SSD NVMe disponibles sont répertoriés et marqués comme compatibles RAID. Nous sélectionnons plusieurs disques Dell DC NVMe de 3.2 Tio dans le pool de capacité non configuré. Des filtres tels que le type de support, l'interface et la taille du secteur logique permettent d'affiner la sélection. Une fois les disques souhaités sélectionnés, nous pouvons cliquer sur « OK » pour finaliser la sélection et poursuivre la création du disque virtuel.

Avant de finaliser la création du disque virtuel, le système affiche un avertissement confirmant que toutes les données des disques physiques sélectionnés seront définitivement supprimées. Pour continuer, cochez la case « Confirmer » et sélectionnez « Oui » pour autoriser l'opération. Cette mesure de sécurité permet d'éviter toute perte accidentelle de données lors de la création du RAID.

Une fois le disque virtuel créé, il apparaît dans le menu « Gestion des disques virtuels ». Dans cet exemple, notre nouveau disque virtuel RAID 5 affiche une capacité de 43.656 Tio et le statut « Prêt ». En quelques étapes simples, le stockage est configuré et prêt à l'emploi.

Si l'utilitaire de configuration du BIOS PERC et l'interface iDRAC offrent des options intuitives pour la gestion locale et à distance, Dell propose également un puissant outil de ligne de commande appelé PERC CLI (perccli2). Compatible avec Windows, Linux et VMware, cet utilitaire est idéal pour la création de scripts, l'automatisation ou la gestion des contrôleurs PERC dans des environnements sans interface graphique. Dell fournit également une documentation détaillée sur l'installation et l'utilisation des commandes. CLI PERC sur leur site de support.

Tests de performances du Dell PERC13

Avant de nous lancer dans les tests de performances, nous avons préparé notre environnement avec la plateforme Dell PowerEdge R7715 configurée avec deux contrôleurs frontaux PERC H975i. Ceux-ci étaient associés à trente-deux disques Dell NVMe de 3.2 To, chacun pouvant atteindre 12,000 5,500 Mo/s en lecture séquentielle et 128 13 Mo/s en écriture séquentielle avec des blocs de XNUMX Kio. Cette base hautes performances nous permet de repousser les limites du débit du contrôleur PERCXNUMX et d'évaluer le comportement RAID à grande échelle.

  • Plate-forme: Dell PowerEdge R7715
  • CPU: Processeur AMD EPYC 9655P 96 cœurs
  • Percussion : 768 Go (12 x 64 Go) DDR5-5200 ECC
  • Contrôleur de raid : 2 x PERC13 H975i
  • Stockage: 32 disques durs Dell CD3.2P NVMe de 8 To
  • Accélérateurs PCIe : 2 GPU NVIDIA H100

Stockage direct GPU NVIDIA Magnum IO : l'IA rencontre le stockage

Les pipelines d'IA modernes sont souvent liés aux E/S, et non aux calculs. Les lots de données, les intégrations et les points de contrôle doivent être transférés du stockage vers la mémoire GPU suffisamment rapidement pour occuper les accélérateurs. Le GDS Magnum IO de NVIDIA (via cuFile) court-circuite le chemin traditionnel « SSD → DRAM CPU → GPU » et permet aux données de passer directement du NVMe à la mémoire GPU en DMA. Cela supprime la surcharge du tampon de rebond du processeur, réduit la latence et rend le débit plus prévisible sous charge, ce qui se traduit par une meilleure utilisation du GPU, des temps d'époque plus courts et des cycles de sauvegarde/chargement des points de contrôle plus rapides.

Notre test GDSIO vise à mesurer le chemin de données du stockage vers le GPU, en analysant la taille des blocs et le nombre de threads afin de montrer la rapidité avec laquelle un ensemble NVMe basé sur PERC13 peut diffuser vers la mémoire H100. Avec chaque H975i sur une liaison PCIe 5.0 x16 (théoriquement environ 64 Go/s par contrôleur, unidirectionnelle), deux contrôleurs fixent un plafond global proche de 112 Go/s ; le plateau de nos courbes indique si vous êtes limité par la liaison ou par le support. Pour les praticiens, les graphiques sont des indicateurs de charges de travail réelles : les lectures séquentielles volumineuses correspondent au streaming des ensembles de données et aux restaurations aux points de contrôle ; les écritures séquentielles volumineuses correspondent aux sauvegardes aux points de contrôle ; les transferts plus petits avec concurrence reflètent les remaniements et la prélecture du chargeur de données. En résumé, une forte évolutivité GDSIO signifie moins de blocages du GPU et des performances plus constantes pendant l'entraînement et l'inférence à haut débit.

Débit de lecture séquentielle GDSIO

En commençant par la lecture séquentielle, le débit a commencé modestement à des tailles de blocs et des nombres de threads plus faibles, commençant autour de 0.3 Gio/s à 8 Ko de blocs avec un seul thread. Les performances ont fortement évolué entre 16 Ko et 512 Ko de blocs, en particulier lorsque le nombre de threads est passé de 4 à 16. Les gains les plus importants ont été observés à des tailles de blocs de 1, 5 et 10 Mo, où le débit a considérablement augmenté, atteignant un pic à 103 Gio/s à 10 Mo de blocs avec 256 threads. Cette progression montre que la matrice PERC13 bénéficie de tailles de blocs plus importantes et du parallélisme multithread, avec une saturation optimale autour de 64 à 128 threads, au-delà de laquelle les gains stagnent.

Différentiel de débit séquentiel de lecture GDSIO

Lors des tests de lecture séquentielle sur des tailles de blocs de 8 K à 10 M, le PERC13 (H975i) a systématiquement surpassé le PERC12 (H965i), avec des gains en pourcentage évoluant considérablement à des tailles de blocs plus grandes et à des nombres de threads plus élevés.

Pour des tailles de blocs plus petites (8 16 à 0 20), les améliorations étaient modestes (généralement comprises entre 975 et 32 %), et dans certains cas isolés, le H64i était légèrement à la traîne en raison de la variabilité des tests à faible profondeur de file d'attente. Pour des tailles de blocs de 975 30 à 50 XNUMX, l'avantage est devenu plus constant, le HXNUMXi offrant un débit supérieur de XNUMX à XNUMX % pour la plupart des threads.

Les différences les plus significatives ont été observées pour des blocs de plus grande taille (128 Ko à 10 Mo), où le contrôleur PERC13 a exploité tout le potentiel de lecture séquentielle du système. Dans ce cas, le H975i a enregistré des gains de 50 à 120 % par rapport au H965i. Par exemple, pour des blocs de 1 Mo avec 8 à 16 threads, le débit était supérieur de plus de 55 Gio/s, soit une augmentation d'environ 90 %. Pour des blocs de 5 et 10 Mo, les améliorations dépassaient régulièrement 100 %, certaines configurations affichant des performances presque deux fois supérieures à celles de la génération précédente.

Globalement, le PERC13 (H975i) a établi une avance considérable sur les charges de travail de lecture séquentielle, notamment avec l'évolution de la taille des blocs et du nombre de threads. Si les blocs de plus petite taille ont montré une amélioration progressive, à 256 Ko et plus, le nouveau contrôleur a constamment offert des performances supérieures de 50 à 100 % et plus, mettant en évidence les avancées architecturales de la dernière plateforme RAID de Dell.

Latence de lecture séquentielle GDSIO

À mesure que le débit de lecture séquentielle augmentait, la latence restait gérable pour des tailles de blocs et des nombres de threads plus petits. Par exemple, la latence est restée inférieure à 100 µs jusqu'à 64 Ko de blocs et 16 threads, démontrant une gestion efficace des lectures dans cette plage. Lorsque la taille des blocs et le nombre de threads ont augmenté, notamment à 5 M et 10 M avec 64 threads ou plus, la latence a rapidement grimpé, atteignant un pic de 211.8 ms pour une taille de bloc de 10 M avec 256 threads. Cela illustre l'apparition de goulots d'étranglement au niveau du contrôleur ou des files d'attente sous des charges de travail extrêmes, même si le débit reste élevé.

Le meilleur équilibre entre performances et efficacité a été observé avec un bloc de 1 M avec 8 à 16 threads, où la matrice a maintenu un débit de 87.5 à 93.7 Gio/s tout en maintenant une latence comprise entre 179 et 334 µs. Cette zone représente le point idéal pour maximiser la bande passante tout en maintenant les délais bien inférieurs à la milliseconde.

Débit d'écriture séquentielle GDSIO

Les performances en écriture ont rapidement progressé avec l'augmentation de la taille des blocs, le débit passant de 1.2 Gio/s à 8 Ko et 1 thread à 13.9 Gio/s à 256 Ko. La croissance la plus importante a été observée entre 128 Ko et 1 Mo de blocs, où le débit a dépassé 80 Gio/s entre 8 et 16 threads. Les performances maximales ont été atteintes aux blocs de 5 et 10 Mo, se maintenant entre 100 et 101 Gio/s à partir de 8 threads.

Les performances ont stagné entre 8 et 64 threads pour ces blocs plus volumineux, indiquant que les contrôleurs ont atteint la saturation tôt dans la courbe de mise à l'échelle. Avec des nombres de threads plus élevés, notamment 128 et 256 threads, la stabilité du débit a varié, se maintenant à 5 Gio/s pour les blocs de 10 et 101 Mio, mais diminuant pour les blocs de taille moyenne, comme 256 Ko, passant de 61.2 Gio/s pour 32 threads à 45.3 Gio/s pour 256 threads.

Différentiel de débit séquentiel d'écriture GDSIO

Lors des tests d'écriture séquentielle, le PERC13 (H975i) a enregistré des gains substantiels par rapport au PERC12 (H965i), notamment avec l'évolution de la taille des blocs et du nombre de threads. Pour les blocs de petite taille (8 Ko à 32 Ko), les améliorations étaient modestes, généralement comprises entre 0 et 10 %, avec un bruit de test occasionnel présentant des différences négligeables.

À partir de 64 K, l'avantage du H975i s'est accentué. À 64 K, les gains ont atteint 40 à 70 %, avec un débit supérieur de plus de 12 à 17 Gio/s par rapport au H965i. À 128 K-256 K, l'amélioration s'est accentuée, le H975i offrant systématiquement un débit supérieur de 50 à 70 % à un nombre de threads modéré à élevé.

L'écart de performance le plus important est apparu pour les blocs de plus grande taille (de 512 Ko à 10 Mo). À 512 Ko, le H975i a enregistré des gains de +31 à +56 Gio/s, soit une amélioration de 60 à 80 % par rapport au H965i. À 1 Mo, l'avance s'est encore accrue, avec des sauts de débit de +40 à +68 Gio/s, soit des gains de 70 à 90 %. Enfin, à 5 et 10 Mo, le PERC 13 a presque doublé son débit par rapport au PERC 12, avec des écarts de +75 à +79 Gio/s, se traduisant par une amélioration de 100 % dans certains scénarios riches en threads.

Globalement, le contrôleur PERC 13 a enregistré une nette avancée générationnelle en termes de performances d'écriture séquentielle. Bien que les différences soient minimes pour les plus petites tailles de blocs, dès que les charges de travail dépassent 64 Ko, le H975i offre un débit systématiquement supérieur de 50 à 100 %, confirmant ainsi sa supériorité sur le H965i pour les charges de travail séquentielles intensives en écriture.

Latence séquentielle d'écriture GDSIO

La latence lors des écritures séquentielles est restée remarquablement faible pour des blocs de plus petite taille et un nombre de threads plus faible, restant souvent inférieure à 50 µs sur des blocs de 128 8 jusqu'à 392 threads. À mesure que le nombre de threads augmentait, la latence s'est nettement améliorée. Par exemple, la latence a atteint 512 µs à 32 1 avec 1 threads et a dépassé 64 ms à XNUMX M avec XNUMX threads.

Les effets de saturation sont devenus plus évidents avec les blocs les plus volumineux et les niveaux de concurrence les plus élevés. La latence a atteint 12.4 ms à 5 Mbit/s avec 128 threads et a culminé à 50.3 ms à 10 Mbit/s avec 256 threads.

Le point de fonctionnement le plus efficace pour les charges de travail d'écriture séquentielle s'est produit aux tailles de bloc de 1 M ou 5 M avec 8 à 16 threads, où le débit a atteint 87.9 à 101.2 Gio/s tandis que la latence est restée entre 178 µs et 1.7 ms, offrant des performances solides et soutenues sans déclencher de retards excessifs dans la file d'attente d'écriture.

Performances du stockage MLPerf 2.0

Pour évaluer les performances réelles dans les environnements d'entraînement d'IA, nous avons utilisé la suite de tests MLPerf Storage 2.0. MLPerf Storage est spécialement conçu pour tester les schémas d'E/S dans des charges de travail d'apprentissage profond réelles et simulées. Il fournit des informations sur la manière dont les systèmes de stockage gèrent les défis tels que les points de contrôle et l'entraînement des modèles.

Benchmark de points de contrôle

Lors de l'entraînement de modèles de machine learning, les points de contrôle sont essentiels pour sauvegarder périodiquement l'état du modèle. Cela permet d'éviter les pertes de progression dues à des interruptions, telles que des pannes matérielles, d'effectuer des arrêts anticipés pendant l'entraînement et de permettre aux chercheurs de se diversifier à partir de différents points de contrôle pour les expériences et les ablations.

La comparaison des durées de sauvegarde aux points de contrôle a révélé que le Dell PERC13 surpassait systématiquement le PERC12, toutes configurations confondues. Le PERC13 a atteint des temps de sauvegarde compris entre 7.61 et 10.17 secondes, tandis que le PERC12 a nécessité entre 10.41 et 20.67 secondes pour les mêmes opérations. L'écart de performance était particulièrement marqué avec le modèle à 1 To, où le PERC13 a effectué les sauvegardes en un peu plus de 10 secondes, contre plus de 12 secondes pour le PERC20. Cela représente une réduction d'environ 50 % du temps de sauvegarde pour les modèles les plus volumineux.

L'analyse des résultats de débit de sauvegarde met en évidence l'utilisation supérieure de la bande passante par PERC13, offrant des taux de transfert de données constamment plus élevés. PERC13 atteint un débit compris entre 11.46 et 14.81 Go/s, avec des performances maximales sur le modèle 1T. En revanche, PERC12 atteint un maximum de 9.49 Go/s et descend à 6.98 Go/s pour la configuration la plus importante. Le nouveau contrôleur maintient des performances plus stables sur différentes tailles de modèle, ce qui suggère une meilleure optimisation pour la gestion des écritures séquentielles volumineuses, typiques des opérations de point de contrôle.

Les comparaisons de durée de charge montrent des avantages similaires pour le PERC13, bien que l'écart de performance varie selon la taille du modèle. Pour les modèles plus petits (8B, 70B), le PERC 13 a chargé les points de contrôle environ 35 à 40 % plus rapidement que le PERC12. Cependant, l'amélioration la plus spectaculaire a été observée avec le modèle 1T, où le PERC13 a chargé en 10.58 secondes contre 12 secondes pour le PERC21.22 (soit une réduction de près de 50 %). Ce temps de récupération plus rapide est crucial pour minimiser les temps d'arrêt lors de la reprise de l'entraînement après interruption.

Enfin, en examinant les métriques de débit de charge, PERC13 démontre un net avantage en termes de performances, maintenant constamment un débit supérieur à 18 Go/s sur toutes les configurations et atteignant un pic de 23.73 Go/s sur le modèle 405B. En revanche, PERC12 a affiché des performances inférieures, allant de 6.8 Go/s à 10.68 Go/s.

FIO Benchmark de performance

Bien que de nouvelles approches de test aient été intégrées à cette revue, pour mettre en évidence les améliorations, nous avons mis en avant certaines des données de notre dernier article sur Contrôleur PERC12 de Dell, mettant en valeur la différence entre la bande passante maximale et le débit maximal.

Dire que PERC13 apporte des améliorations est un euphémisme. Avec un seul volume RAID5 sur chaque contrôleur, nous avons mesuré une augmentation de 88 % de la bande passante en lecture, de 318 % de la bande passante en écriture, de 31 % des performances en lecture aléatoire 4K et de 466 % des performances en écriture aléatoire 4K. Il ne s'agit pas des performances maximales du contrôleur PERC 13 ; des vitesses supérieures sont possibles avec davantage de disques virtuels. Cependant, ce résultat reflète les performances d'un espace de noms unique lors de l'optimisation de la capacité totale.

Charge de travail Double PERC 12 (2 x RAID5) Double PERC 13 (2 x RAID5) Augmentation des performances
128 XNUMX lectures séquentielles 56,107 XNUMX (Mo/s) 105,227 XNUMX (Mo/s) 88%
128 XNUMX écritures séquentielles 24,351 XNUMX (Mo/s) 101,723 XNUMX (Mo/s) 318%
Lectures aléatoires de 4 Ko 13,205,656 XNUMX XNUMX (IOP) 17,342,057 XNUMX XNUMX (IOP) 31%
Écritures aléatoires de 4 Ko 1,725,198 XNUMX XNUMX (IOP) 9,758,677 XNUMX XNUMX (IOP) 466%

Nous nous sommes concentrés sur les performances des contrôleurs Dell PERC H975i et PERC H965i, exploitant le RAID 5, qui offre un excellent compromis entre capacité et protection de parité. Nous avons examiné plusieurs configurations de disques virtuels (VD) sur le Dell PERC H975i : 8 VD en RAID 5 (8R5), 4 VD en RAID 5 (4R5) et 2 VD en RAID 5 (2R5). Nous avons également testé deux configurations sur le Dell PERC H965i : 4 VD en RAID 5 (4R5) et 2 VD en RAID 5 (2R5). Les configurations ont été choisies en fonction du nombre de SSD que chaque contrôleur peut gérer. Le tout nouveau contrôleur PERC 13 peut gérer jusqu'à 16 SSD, facilement divisibles en 4 groupes RAID 5 de 4 SSD chacun. L'ancien PERC 12 ne pouvait gérer que 8 SSD, limitant ainsi ses tests à 2 groupes RAID 5 maximum. Cette configuration signifie que dans le cas d'un système 8R5, nous avons quatre RAID 4 à 5 disques sur chaque contrôleur RAID PERC.

Chaque configuration a été soumise à un processus d'analyse comparative identique, commençant par une phase de préconditionnement comprenant deux écritures complètes sur le périphérique avec des charges de travail séquentielles. Une fois l'état stable atteint, nous avons mesuré les performances selon différents modèles d'accès. Avant chaque nouveau test de charge de travail, nous avons réédité un cycle de préconditionnement avec la taille de transfert correspondante afin de garantir la cohérence des résultats.

Bande passante d'écriture séquentielle de 128 K

Lors des tests d'écriture séquentielle à 128 Ko, une différence de performances considérable est apparue entre les générations de contrôleurs. Les baies PERC H965i ont affiché un débit modeste, la configuration 2R5 atteignant 28.1 Go/s et la configuration 4R5 29.5 Go/s, affichant une évolutivité minimale due à l'ajout de disques RAID. À l'inverse, le contrôleur PERC H975i a affiché des performances exceptionnelles dans toutes les configurations : la baie 2R5 a atteint 99.3 Go/s (253 %), la configuration 4R5 99.7 Go/s (238 %) et la configuration 8R5 a culminé à 101.3 Go/s (243 % par rapport au H965i 4R5). Globalement, le H975i a atteint un débit proche de 100 Go/s, quel que soit le nombre de disques, ce qui indique que le plafond de bande passante du contrôleur pour les écritures séquentielles à 128 Ko était atteint.

Latence d'écriture séquentielle de 128 K

Lors des tests de latence d'écriture séquentielle à 128 Ko, une nette différence est apparue entre les générations de contrôleurs. Les baies PERC H965i ont affiché des latences plus élevées, la configuration 2R5 allant de 0.0238 ms à 17.8 ms et la configuration 4R5 allant jusqu'à 38.9 ms, ce qui montre un bénéfice minimal de l'ajout de disques RAID. En revanche, le contrôleur PERC H975i a obtenu une latence nettement inférieure dans toutes les configurations : la baie 2R5 variait de 0.0173 ms à 5.0 ms (latence maximale inférieure de 72 %), la configuration 4R5 de 0.0179 ms à 10.5 ms (73 % de moins) et la configuration 8R5 de 0.0188 ms à 20.1 ms (48 % de moins par rapport au H965i 4R5).

Bande passante de lecture séquentielle de 128 K

Lors des tests de lecture séquentielle de 128 K sur les systèmes Dell, les contrôleurs PERC H965i ont affiché des performances constantes sur les deux configurations. La baie 2R5 a atteint une bande passante maximale de 54.8 Go/s, tandis que la configuration 4R5 a également atteint 54.8 Go/s. En revanche, les contrôleurs PERC H975i ont affiché des performances nettement supérieures, les trois configurations atteignant une bande passante maximale d'environ 102.7 à 102.8 Go/s. La baie H975i 2R5 a atteint 102.8 Go/s (amélioration de 87 %), la configuration 4R5 a atteint 102.7 Go/s (amélioration de 87 %) et la configuration 8R5 a atteint 102.7 Go/s (amélioration de 87 %). Il est à noter que, bien que les contrôleurs H965i n'aient montré aucune évolution significative des performances entre les configurations 2R5 et 4R5, les contrôleurs H975i ont maintenu des performances élevées et constantes sur toutes les configurations RAID 5, le plafond de bande passante semblant être atteint quel que soit le nombre de disques dans la matrice.

 

Latence de lecture séquentielle de 128 K

Lors des tests de latence de lecture séquentielle à 128 K, le PERC H965i a affiché des latences comprises entre 0.2006 ms et 16.1 ms sur 2R5 et entre 0.1644 ms et 24.7 ms sur 4R5, avec une variabilité accrue à mesure que les disques évoluaient. En comparaison, le PERC H975i s'est montré bien plus performant : la configuration 2R5 affichait une latence maximale de 0.062 ms à 4.9 ms (80 % de latence inférieure), la configuration 4R5 de 0.075 ms à 9.8 ms (60 % de latence inférieure) et la configuration 8R5 affichait un pic à 19.5 ms (21 % de latence inférieure par rapport au H965i 4R5).

 

Bande passante d'écriture aléatoire de 64 k

Lors des tests d'écriture aléatoire de 64 K, l'ancien contrôleur PERC H965i a affiché des performances constantes, mais limitées. Les configurations 2R5 et 4R5 ont atteint un débit quasi identique de 8.3 Go/s, quel que soit le nombre de disques. À l'inverse, le contrôleur PERC H975i a enregistré des améliorations de performances exceptionnelles : la configuration 2R5 a atteint 39.8 Go/s (amélioration de 379 %), tandis que la configuration 4R5 a conservé la même bande passante maximale de 39.8 Go/s (amélioration de 379 %). La matrice 8R5 du H975i a légèrement dépassé les 40.3 Go/s (amélioration de 386 %).

 

Latence d'écriture aléatoire de 64 k

Lors des tests de latence d'écriture aléatoire de 64 K, le H965i a rencontré des difficultés sous une charge plus importante, avec un 2R5 allant de 0.020 ms à 30.0 ms et un 4R5 atteignant 60.0 ms. À l'inverse, le contrôleur H975i a affiché des performances nettement supérieures : le 2R5 variait de 0.0115 ms à 6.3 ms (latence maximale inférieure de 79 %), le 4R5 n'atteignait que 12.6 ms (79 % de moins) et le 8R5 atteignait un pic de 24.8 ms (59 % de moins que le H965i 4R5).

 

Bande passante de lecture aléatoire de 64 k

Lors des tests de lecture aléatoire de 64 Ko, le PERC H965i, avec les matrices 2R5 et 4R5, a atteint un débit quasi identique de 54.6 Go/s. À l'inverse, le contrôleur PERC H975i s'est encore une fois montré nettement supérieur, les trois configurations atteignant environ 102.7 Go/s, soit une amélioration de 88 % des performances par rapport au H965i. Les configurations H975i ont notamment montré une remarquable constance entre différentes tailles de matrice RAID, avec une bande passante maximale comprise entre 102.7 Go/s et 102.7 Go/s seulement, que la matrice RAID-2 soit composée de 4, 8 ou 5 disques. Cela suggère qu'avec une charge de travail de lecture aléatoire de 64 Ko, nous sommes capables de saturer complètement le contrôleur et que nous ne sommes pas limités en termes de disques sur la nouvelle plateforme H975i.

 

Latence de lecture aléatoire de 64 k

Pour les lectures aléatoires de 64 K, la matrice H965i 2R5 affichait des temps de latence compris entre 0.226 ms et 4.6 ms, tandis que la configuration 4R5 atteignait 9.6 ms. Le passage au H975i a considérablement réduit les latences : le 2R5 affichait des temps de latence de 0.080 ms à 2.4 ms (latence maximale inférieure de 48 %), le 4R5 de 0.080 ms à 4.9 ms (latence inférieure de 49 %) et le 8R5 de 0.080 ms à 9.7 ms (équivalent au H965i 4R5). Globalement, le H975i a affiché un contrôle plus strict et des plafonds de latence plus bas sur tous les groupes RAID.

 

16 XNUMX IOPS en écriture séquentielle

Lors des tests d'écriture séquentielle à 16 K, le contrôleur PERC H965i a affiché des performances modestes, la configuration 2R5 atteignant 1.73 million d'IOPS et la configuration 4R5 1.87 million. Le PERC H975i, en comparaison, a enregistré une amélioration spectaculaire, la configuration 2R5 atteignant 6.44 millions d'IOPS (soit une amélioration de 272 % par rapport au H965i). La matrice 975R4 du H5i a culminé à 6.54 millions d'IOPS (soit une amélioration de 250 %), tandis que la configuration 8R5 a atteint 6.53 millions d'IOPS (soit une amélioration de 249 % par rapport au H965i 4R5), ce qui démontre une fois de plus que les contrôleurs saturent autour de 6.5 millions d'IOPS à une taille de bloc de 16 K.

 

Latence d'écriture séquentielle de 16 k

En écriture séquentielle de 16 K, les matrices H965i ont produit entre 0.0080 et 3.5 ms sur 2R5 et entre 0.0083 et 5.3 ms sur 4R5. Le H975i a affiché une efficacité supérieure, avec une plage de 2 ms à 5 ms sur 0.0070R0.80 (77 % de moins), jusqu'à 4 ms sur 5R1.42 (73 % de moins) et un pic à 8 ms sur 5R6.2 (17 % de moins que le H965i 4R5).

 

16 XNUMX IOPS en lecture séquentielle

Lors des tests de lecture séquentielle de 16 K, les contrôleurs PERC H965i ont obtenu des résultats cohérents : la configuration 2R5 a atteint 3.56 millions d'IOPS, tandis que la configuration 4R5 a également atteint 3.56 millions d'IOPS. À titre de comparaison, les contrôleurs PERC H975i ont enregistré des performances proches de 6.64 millions d'IOPS, soit une amélioration de 86 % par rapport au H965i.

 

Latence de lecture séquentielle de 16 k

Lors de lectures séquentielles de 16 965 octets, la matrice H2i 5R0.040 variait de 1.15 ms à 4 ms, tandis que la matrice 5R3.0 atteignait 975 ms. Sur le H2i, les latences se sont améliorées : la matrice 5R0.038 atteignait 0.62 – 46 ms (4 % de moins), la matrice 5R1.23 atteignait 59 ms (8 % de moins) et la matrice 5R2.47 atteignait 19 ms (965 % de moins par rapport à la matrice H4i 5RXNUMX).

 

IOPS en écriture aléatoire 16k

Avec des E/S aléatoires à une taille de bloc de 16 Ko, nous avons constaté que le point de saturation était atteint très tôt dans les tests. Les deux configurations PERC H965i (2R5 et 4R5) ont fourni des performances quasi identiques, avec environ 492,000 975 IOPS. Les contrôleurs PERC H2i avec la matrice 5R2.57 ont atteint 422 millions d'IOPS (amélioration de 975 %). Les configurations H4i 5R8 et 5R2.60 ont affiché des performances légèrement supérieures, avec environ 428 millions d'IOPS (amélioration de XNUMX %).

 

Latence d'écriture aléatoire de 16 k

Avec 16 965 écritures aléatoires, le H2i souffrait d'une latence plus élevée, avec 5R0.0082 s'étendant de 8.6 à 4 ms et 5R16.6 s'étendant jusqu'à 975 ms. Le H2i s'est considérablement amélioré, avec 5R0.0070 à 1.59 à 82 ms (4 % de moins), 5R3.17 jusqu'à 81 ms (8 % de moins) et 5R6.27 atteignant un maximum de 62 ms (965 % de moins par rapport au H4i 5RXNUMX).

 

IOPS en lecture aléatoire 16k

En lecture aléatoire de 16 K, les configurations PERC H965i ont affiché des performances constantes, la matrice 2R5 atteignant 3.55 millions d'IOPS et la matrice 4R5 atteignant 3.55 millions d'IOPS. Les configurations PERC H975i 2R5, 4R5 et 8R5 ont atteint des performances de pointe quasiment identiques, autour de 6.64 millions d'IOPS, soit une amélioration de 87 % par rapport à la génération H965i.

 

Latence de lecture aléatoire de 16 k

Lors de lectures aléatoires de 16 965 octets, les matrices H0.0906i ont fourni un temps de latence de 1.15 à 2 ms pour 5R2.74 et jusqu’à 4 ms pour 5R975. Le H2i a encore réduit la latence, avec un temps de latence de 5 à 0.072 ms pour 0.62R46 (4 % de moins), jusqu’à 5 ms pour 1.23R55 (8 % de moins) et un pic de latence de 5 ms pour 2.47R10 (965 % de moins que pour le H4i 5RXNUMX).

 

IOPS en écriture aléatoire 4K

Lors des tests d'écriture aléatoire 4K, les contrôleurs PERC H975i en configuration 2R5 ont atteint un pic de 9.76 millions d'IOPS, tandis que la matrice 4R5 a affiché des performances légèrement supérieures, avec 9.94 millions d'IOPS. La configuration 8R5 a affiché les performances les plus élevées, atteignant 10.10 millions d'IOPS.

Latence d'écriture aléatoire de 4 K

Pour les tests 4K, nous avons évalué uniquement le H975i pour ses performances optimales. La latence était excellente sur toutes les matrices : la 2R5 variait de 0.0058 ms à 0.47 ms, la 4R5 atteignait un pic à 0.88 ms et la 8R5 atteignait 1.63 ms. Ces résultats démontrent qu'avec la plus petite taille de bloc, le H975i maintenait des latences exceptionnellement faibles, constamment inférieures à 2 ms.

IOPS en lecture aléatoire 4K

Nous avons réservé l'un des graphiques les plus intéressants pour la fin : lors des tests de lecture aléatoire 4K, le H975i avec la configuration 2R5 a atteint un impressionnant débit de 17.3 millions d'IOPS. La matrice H975i 4R5 a atteint 20.1 millions d'IOPS, tandis que la configuration 8R5 a enregistré le débit le plus élevé, avec 25.2 millions d'IOPS.

Latence de lecture aléatoire de 4 K

Lors des lectures aléatoires 4K, les latences ont commencé à 0.069 ms sur toutes les baies, avec un pic à 2 ms pour le 5R0.29, 4 ms pour le 5R0.53 et 8 ms pour le 5R0.65. Ce faible plafond sur tous les groupes RAID souligne la capacité du H975i à gérer les petites lectures aléatoires avec une efficacité remarquable.

Aucun compromis sur les performances lors de la reconstruction

Comparé au PERC12, le contrôleur Dell PERC13 offre un débit nettement supérieur pour toutes les charges de travail lors de la reconstruction des baies. Les lectures séquentielles ont plus que doublé, passant de 53.7 Go/s à 25 Go/s (soit une hausse de 114.7 %), et les écritures séquentielles ont bondi de 68 Go/s à 14.6 Go/s (soit une hausse de 363.7 %). Les performances des petits blocs creusent encore l'écart : les lectures aléatoires de 4 17.33 milliards d'IOPS passent de 4.68 M à 270.4 M (soit une hausse de 4 %), tandis que les écritures aléatoires de 5.33 0.48 milliards d'IOPS explosent de 1013.1 M à 13 M (soit une hausse de XNUMX XNUMX %). En résumé, le PERCXNUMX minimise l'impact de la reconstruction et préserve la marge de manœuvre de l'hôte, même pendant les périodes de maintenance les plus intenses.

Charge de travail Double PERC 12 (2 × RAID5) – Reconstruction Double PERC 13 (2 × RAID5) – Reconstruction % Amélioration
Bande passante de lecture séquentielle 25 (Go/s) 53.7 (Go/s) 114.7%
Bande passante d'écriture séquentielle 14.7 (Go/s) 68 (Go/s) 363.7%
Lectures aléatoires de 4 Ko 4,676,748 XNUMX XNUMX (IOPS) 17,326,888 XNUMX XNUMX (IOP) 270.4%
Écritures aléatoires de 4 Ko 479,144 XNUMX XNUMX (IOP) 5,333,783 XNUMX XNUMX (IOP) 1013.1%

Reconstruire rapidement sans ralentir les charges de travail

Dell revendique également des gains considérables en termes de résilience et de performances de reconstruction, citant une réduction du temps de reconstruction de la matrice, passant de plus de 80 minutes par téraoctet avec PERC12 à seulement 10 minutes par téraoctet avec PERC13. Cette vitesse réduit les risques et témoigne de la maturité du moteur XOR matériel du contrôleur, de l'accélération du cache et de l'optimisation du chemin de données.

Lors des tests de reconstruction RAID5, PERC13 a systématiquement obtenu des temps de reconstruction plus courts que PERC12 lorsque le contrôleur était autorisé à prioriser la reconstruction, sachant qu'une pression d'écriture extrêmement élevée peut annuler cet avantage. Lorsque la reconstruction prioritaire est activée, le contrôleur donne la priorité aux tâches de reconstruction sur les ressources. Cela a permis au contrôleur PERC13 de réduire considérablement les temps de reconstruction sous une pression de lecture séquentielle. À la charge hôte la plus faible (125 Mo/s), le temps de reconstruction est passé de 11.53 à 5.32 min/Tio. Même à la charge la plus élevée, le temps de reconstruction a été réduit de 16.96 à 7.73 min/Tio, tout en maintenant un débit de lecture hôte bien plus élevé (22.4 Go/s contre 60 Go/s).

Grâce à la pression d'écriture séquentielle, le PERC13 a amélioré la reconstruction en charge légère de 7.51 à 4.98 min/Tio, mais sous la charge d'écriture la plus importante, son temps de reconstruction est passé à 15.29 min/Tio, contre 760 min/Tio pour le R13.09. Ce résultat peut être analysé sous deux angles : le PERC13 avait une vitesse de reconstruction plus lente, mais il a conservé des vitesses d'écriture proches de celles du PERC13 (12 Go/s contre 62.5 Go/s). Autrement dit, la reconstruction prioritaire tient ses promesses d'une fenêtre de reconstruction plus rapide, notamment pour les activités à forte activité de lecture. La seule exception concerne les cas où le système est simultanément soumis à des écritures très intensives ; le débit hôte plus élevé du PERC12 peut prolonger le temps de reconstruction.

Vitesse de reconstruction (reconstruction prioritaire) (RAID5)
Scénario Double PERC 12 (2 × RAID5) Double PERC 13 (2 × RAID5)
Min/TiB Bande passante totale Min/TiB Bande passante totale
Lecture séquentielle – Activité légère 11.53 0.125 GB / s 5.32 0.125 GB / s
Lecture séquentielle – Activité intense 16.96 22.4 GB / s 7.73 60 GB / s
Écriture séquentielle – Activité légère 7.51 0.125 GB / s 4.98 0.125 GB / s
Écriture séquentielle – Activité intense 13.09 12 GB / s 15.29 62.5GB / s

En passant à Priority Host, qui protège intentionnellement les E/S des applications au détriment de la vitesse de reconstruction, les performances sont similaires en lecture et plus nuancées en écriture. En lecture, le contrôleur PERC13 termine les reconstructions beaucoup plus rapidement que l'ancien PERC12, réduisant le temps de charge faible de 11.23 à 6.70 min/Tio et le temps de charge élevée de 38.44 à 19.75 min/Tio, tout en gérant davantage de trafic hôte (46.2 Go/s contre 24.1 Go/s en charge élevée). En écriture, Priority Host privilégie les performances de production : le PERC13 est plus rapide à la charge la plus faible (7.80 contre 5.67 min/Tio), mais en écriture la plus élevée, sa reconstruction atteint 32.81 min/Tio, contre 12 min/Tio pour le PERC25.40. Le temps de reconstruction s'allonge légèrement, mais le PERC13 offre à l'hôte une bande passante d'écriture bien plus élevée (62.4 Go/s contre 12.5 Go/s).

Vitesse de reconstruction – (Hôte prioritaire) (RAID5)
Scénario Double PERC 12 (2 × RAID5) Double PERC 13 (2 × RAID5)
Min/TiB Bande passante totale Min/TiB Bande passante totale
Lecture séquentielle – Activité légère 11.23 0.125 GB / s 6.70 0.125 GB / s
Lecture séquentielle – Activité intense 38.44 24.1 GB / s 19.75 46 GB / s
Écriture séquentielle – Activité légère 7.80 0.125 GB / s 5.67 0.125 GB / s
Écriture séquentielle – Activité intense 25.40 12.5 GB / s 32.81 62.4 GB / s

Du point de vue du déploiement, le choix est simple. Lorsqu'il est nécessaire de minimiser la fenêtre de vulnérabilité et que vous pouvez tolérer une certaine dépriorisation des E/S, la priorité de reconstruction du PERC13 réduit les temps de reconstruction, notamment pour les scénarios à lecture intensive. Lorsque le maintien de la réactivité des applications est indispensable, Priority Host s'en charge parfaitement ; le PERC13 excelle toujours pour les reconstructions en lecture, tandis que les périodes d'écriture intensives peuvent justifier une planification ou une légère limitation si le temps de reconstruction absolu est un problème.

Conclusion

Le Dell PERC H975i positionne le RAID matériel comme une solution incontournable pour les datacenters d'entreprise centrés sur NVMe. Si les implémentations JBOD et RAID logiciel ont gagné en popularité dans les environnements scale-out, ces approches engendrent une complexité opérationnelle, une surcharge CPU et des temps de récupération prolongés en cas de panne de disque. Le H975i offre une accélération matérielle sur mesure avec des moteurs de parité dédiés, des opérations de reconstruction accélérées et des capacités de gestion intégrées à la pile d'infrastructure Dell.

Pour les charges de travail d'IA et d'apprentissage automatique qui exigent des caractéristiques de débit cohérentes, une variation de latence minimale et une fiabilité de disponibilité maximale, les architectures RAID gérées par le matériel offrent à la fois des performances de calcul et une résilience opérationnelle sans consommer de ressources de traitement hôte critiques.

Les tests de performance valident les améliorations architecturales : le H975i offre une bande passante de lecture séquentielle supérieure de 88 % et une bande passante d'écriture séquentielle supérieure de 318 % à celle de la génération PERC12. Des pics de débit de 103 Go/s et 25.2 millions d'IOPS démontrent les capacités du contrôleur pour les charges de travail gourmandes en données. De plus, les temps de reconstruction sont passés de plus de 80 minutes par téraoctet à seulement 10 minutes par téraoctet, tout en maintenant des performances proches de la production lors des opérations de récupération.

Les interfaces PCIe Gen975 x5 et la conception intégrée en façade du H16i prennent en charge les déploiements GPU denses sans contention de stockage, permettant une évolutivité prévisible des performances dans les configurations multi-accélérateurs. Avec de nombreux serveurs PowerEdge proposant les contrôleurs RAID H965i et H975i, il est évident que les entreprises exploitant des charges de travail émergentes devraient opter pour la nouvelle offre. Si vous déployez une infrastructure d'IA à grande échelle, le H975i offre la base de stockage à large bande passante et à faible latence nécessaire pour optimiser l'utilisation des ressources de calcul.

Centre d'information Dell PERC

Guide de l'utilisateur du Dell PERC13

S'engager avec StorageReview

Bulletin d'information (en anglais) |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS

Kevin O'Brien et Divyansh Jain