Page d'accueil Entreprise Le stockage dense permet des réseaux de diffusion de contenu plus réactifs

Le stockage dense permet des réseaux de diffusion de contenu plus réactifs

by Brian Beeler

Quand on pense aux réseaux de diffusion de contenu (CDN), il est facile de se tourner directement vers les grandes marques que nous connaissons, comme Netflix, Hulu, etc. il est intuitif de penser au dernier épisode de votre émission préférée distribué sur votre téléphone ou sur le téléviseur de votre salon. Bien sûr, c’est bien plus compliqué que cela, et le stockage haute capacité joue un rôle majeur dans l’expérience client.

Quand on pense aux réseaux de diffusion de contenu (CDN), il est facile de se tourner directement vers les grandes marques que nous connaissons, comme Netflix, Hulu, etc. il est intuitif de penser au dernier épisode de votre émission préférée distribué sur votre téléphone ou sur le téléviseur de votre salon. Bien sûr, c’est bien plus compliqué que cela, et le stockage haute capacité joue un rôle majeur dans l’expérience client.

En appelant Sloterhouse sur Hulu, votre appareil de streaming atteindra d'abord un CDN périphérique proche de chez vous. Plus le nœud CDN peut contenir de données, plus le service est susceptible de démarrer rapidement plutôt que de rebondir vers un nœud plus éloigné pour récupérer le contenu demandé. Les avantages de la réduction des sauts nécessaires au streaming vidéo sont plutôt évidents, mais les CDN font bien plus que cela.

Les CDN permettent d'autres cas d'utilisation, tels que les mises à jour en direct (OTA) pour des voitures comme Tesla ou le déplacement de ces flux de films d'Internet vers l'intérieur d'un avion de ligne commercial. Quel que soit le type de fichiers livrés, une chose est claire : plus vous pouvez stocker en périphérie, plus un CDN peut être réactif – ce qui est essentiel car les clients mesurent le succès par les tours du throbber, sans se soucier du l'infrastructure sous-jacente qui rend tout cela possible.

Comme d'habitude avec nos rapports, nous ne voulions pas seulement spéculer sur le fonctionnement des CDN et sur les endroits où la pression sur l'architecture est la plus susceptible de se situer. Nous sommes allés voir des experts. Dans ce cas, c'est Logiciel de vernis, l'un des leaders prééminents des logiciels de diffusion de contenu.

Nous nous sommes associés à Varnish pour configurer un nœud CDN Edge parfait dans notre laboratoire, équipé du logiciel de diffusion de contenu de Varnish, d'un serveur spécifique CDN de Supermicro, d'une empreinte de stockage massive grâce aux SSD Solidigm P30.72 de 5316 To et d'une interconnexion 200 GbE haut débit de NVIDIA va mieux gérer les facteurs de stress sur les nœuds CDN de périphérie et l'impact du stockage, en particulier, sur les résultats.

Qui est Varnish Software?

Varnish propose un logiciel de diffusion de contenu qui permet d'accélérer facilement les interactions numériques, de gérer des charges de trafic massives et de protéger l'infrastructure Web. Varnish aide les organisations à déplacer la diffusion de contenu aussi près que possible du client afin de garantir la meilleure expérience tout en permettant un retour sur investissement maximal dans l'infrastructure.

La fondation repose sur un cache HTTP open source robuste et riche en fonctionnalités et un proxy inverse, Varnish Cache, qui se situe entre l'origine et le client. Il a été optimisé pour extraire le maximum de performances et d'efficacité du matériel sous-jacent. Varnish Cache rationalise la mise en file d'attente, le stockage et la récupération au niveau du système, ce qui en fait la méthode idéale pour évaluer les charges de travail de livraison de contenu et de livraison en périphérie.

Varnish peut fonctionner sur à peu près n'importe quoi, mais il y a un avantage à donner plus de puissance à ses nœuds périphériques dans quelques domaines clés pour améliorer l'expérience client. Chaque retour au centre de données depuis l'appareil client introduit une latence. Ainsi, plus le nœud périphérique peut en fournir, mieux c'est. À cette fin, nous avons construit le nœud CDN Edge ultime et l'avons testé avec les outils rigoureux de validation de nœud de Varnish.

Qu'est-ce qui rend le vernis CDN si rapide ?

Les CDN ont besoin de plus qu'un réseau rapide, en particulier en périphérie. Il serait inefficace et lent si chaque requête devait revenir au site hôte pour une actualisation. La solution optimale serait un système de stockage permettant de traiter et de stocker les données à proximité du client. Le système a besoin de capacités de stockage massives et d'un serveur hautes performances capable d'extraire rapidement les informations du cache et de les fournir sans délai.

Varnish Software a mis en œuvre une solution qui prend en charge de très grands ensembles de données pour répondre à pratiquement tous les environnements dotés de serveurs hautes performances et de systèmes de stockage haute densité. Découvrez le moteur de stockage massif.

Le moteur de stockage massif (MSE) de Varnish Software est un moteur de cache disque et mémoire optimisé. MSE permet une mise en cache et une persistance hautes performances pour des ensembles de données de plus de 100 To prenant en charge la distribution vidéo et multimédia, les CDN et les cas d'utilisation de cache volumineux. MSE convient parfaitement aux entreprises où la fourniture de hautes performances de grands ensembles de données est essentielle.

Grâce au MSE hautes performances, le cache reste intact entre les redémarrages et les mises à niveau, évitant ainsi des recharges de cache coûteuses et chronophages. Cela permet une récupération rapide et permet d'éviter la congestion du réseau après un redémarrage.

La solution MSE peut stocker et servir des objets de taille presque illimitée dans le cache pour une diffusion de contenu rapide et évolutive. MSE a été optimisé pour fournir du contenu avec moins de fragmentation pour la politique d'expulsion du cache le moins récemment utilisé (LRU), ce qui se traduit par des performances et une simultanéité supérieures. Pour les clients disposant d'une taille de cache supérieure à 50 Go ou d'une mémoire limitée, Varnish recommande d'utiliser MSE.

La dernière génération de MSE (MSE 4) permet une panne progressive des disques, permettant aux empreintes de cache persistantes de reprendre automatiquement leur fonctionnement après la détection d'une panne de disque.

Configuration matérielle du nœud Edge CDN

Dans notre scénario de test, nous avons exploité un seul serveur agissant comme un nœud Edge CDN et un seul client. Notre nœud CDN est basé sur le Serveur Supermicro SYS-111E-WR avec un seul processeur Intel Xeon Gold 6414U. Ce processeur propose 32 cœurs et a une fréquence de base de 2 GHz.

Nous avons associé ce processeur à 256 Go de mémoire DDR5 et à huit SSD QLC Solidigm P5316 de 30.72 To. Cette conception visait à montrer ce qu'un modèle de déploiement allégé peut offrir en termes de performances sans nécessiter de disques SSD plus coûteux ou de ressources CPU supplémentaires qui resteraient sous-utilisées.

Pour le côté client, nous avons utilisé une plate-forme biprocesseur disponible dans notre laboratoire avec des processeurs Intel Xeon Platinum 8450H, ce qui est excessif mais disposait de suffisamment de ressources pour garantir que le goulot d'étranglement était soit le réseau, soit le nœud CDN.

Nos systèmes étaient configurés avec Ubuntu 22.04 comme système d'exploitation et chacun était équipé d'une carte réseau NVIDIA 200 Go. La structure Ethernet 200 Go offrait une large bande passante pour ce scénario de test.

Performances du nœud Edge CDN

Le test a examiné les performances globales de Varnish Software sur le nœud périphérique que nous avons construit. Plus précisément, les mesures critiques évaluées incluent le TTLB (Time to Last Byte), les requêtes/seconde, le transfert/seconde (octets), le total des requêtes, les erreurs, l'utilisation du processeur, l'utilisation de la mémoire, le débit et le bon débit. Par souci de clarté, le débit correspond à tout ce qui est envoyé par Varnish, et le bon débit est ce que le client voit réellement, en ignorant les retransmissions ou les données supplémentaires.

Les tests ont été réalisés à l'aide WRK en tant qu'outil de génération de charge, extrayant des morceaux de fichiers de différentes tailles à partir d'un backend vidéo à l'aide de 100 connexions TCP. Le test a été conçu pour avoir un taux de réussite du cache de 90 à 95 % afin de simuler ce que l'on voit souvent dans les environnements de diffusion vidéo déployés. Pour simuler différentes charges de travail, nous nous sommes concentrés sur les performances des petits et grands fichiers, où les fichiers plus petits pouvaient simuler des appels d'API et les fichiers plus gros pouvaient représenter diverses qualités vidéo dans un scénario en direct ou de vidéo à la demande (VOD).

Nous avons testé des tailles de fichiers de 100 et 500 kilo-octets pour les tests d'objets plus petits et de 1,000 10,000, 16,000 50,000, 100 10 et 16 50 kilo-octets pour les objets plus gros. Nous espérions capturer un mélange de cas d'utilisation de CDN en examinant une gamme de tailles de fichiers. Pour les organisations effectuant des appels API volumineux mais petits, XNUMX kilo-octets seront probablement plus volumineux que la plupart. Pour la VOD, un objet de XNUMX Mo peut représenter un court clip vidéo, XNUMX Mo une vidéo HD et XNUMX Mo une vidéo de qualité encore supérieure. Ces tailles de fichiers peuvent également être appliquées à la distribution et à la livraison d'images ISO, de mises à jour logicielles et de packages d'installation.

L'outil de test de charge WRK renvoie TTLB (Time to Last Byte), de sorte que les mesures de latence affichent le temps de chargement complet pour l'ensemble du morceau vidéo. De plus, le TTFB (Time to First Byte) est le temps de la première réponse du serveur, généralement mesuré en millisecondes, et est constant pour de nombreuses tailles de fichiers différentes.

Nous avons observé des TTLB de 4.4 ms à 995.2 ms. Pour le plus petit morceau vidéo de 100 kilo-octets, la réponse complète moyenne n'était que de 4.4 ms. Pour la plus grande taille de 50 Mo, le chargement complet était toujours effectué en moins d'une seconde en moyenne.

D'autres mesures à noter sont le nombre d'erreurs ; les seules erreurs constatées étaient des erreurs de délai d'attente résiduelles. Ceux-ci sont attendus pour les objets de plus grande taille. L'utilisation du processeur et de la mémoire est restée saine, entre environ 50 % et 60 % de la pleine capacité au cours de ces tests. L'utilisation la plus élevée du processeur a eu lieu lors du test de 100 Ko avec 58.8 pour cent et du test de 50 Mo avec 58 pour cent en raison du grand nombre de requêtes pour les fichiers plus petits et de la taille des fichiers plus gros.

Le débit moyen pour la vidéo de plus grande taille était de 170.5+ Gbit/s, et la moyenne pour la vidéo de plus petite taille était de 164+ Gbit/s.

Les moyennes de Goodput pour les plus grandes tailles étaient de 158.8+ Gbit/s et de 149.1+ Gbit/s pour les plus petites tailles en utilisant un client WRK comme générateur de chargement. On s'attend à ce que des débits plus élevés puissent être obtenus en faisant évoluer les clients WRK, comme observé dans quelques autres expériences menées en interne par Varnish, mais cela sort du cadre de cet article.

Bien que les mesures de performances brutes soient importantes, la consommation d'énergie est une autre considération pour les systèmes Edge CDN. C’est là qu’intervient la plateforme que nous avons choisie pour ce projet. La prise unique Serveur Supermicro SYS-111E-WR offre une plate-forme de stockage NVMe dense avec de nombreux emplacements PCIe pour les cartes réseau sans être trop agressive en termes de consommation d'énergie avec les doubles processeurs.

Pour mesurer la consommation électrique du serveur avec la charge appliquée, nous avons exploité notre module d'analyse de l'alimentation secteur Quarch. Cela nous donne une vision précise de la puissance tirée du serveur, avec un temps de réponse de 125us. Ici, nous avons parcouru chaque groupe de test pendant la même période et mesuré la puissance moyenne du début à la fin de la charge de travail.

Nous nous sommes concentrés sur deux mesures de puissance : la puissance RMS totale du système par rapport à la taille du fichier de test et aux requêtes par seconde par watt. Même si la première hypothèse serait que la consommation d’énergie augmente avec les vitesses de transfert plus élevées, ce n’était pas le cas. Nous avons constaté une consommation d’énergie élevée avec des tailles de transfert inférieures, qui a légèrement diminué à mesure que la taille du transfert augmentait. Cela se résume à des tailles de transfert plus petites entraînant davantage de processus d'E/S, et à des tailles de transfert plus grandes avec moins de processus d'E/S.

En ce qui concerne la puissance totale du système, avec une taille de transfert de 1 Mo, nous avons mesuré un niveau de puissance système de 473.9 W, qui a diminué à 426.5 W avec une taille de transfert de 50 Mo. Lorsque nous décomposons cela en requêtes par seconde et par watt, la taille de transfert de 1 M était de 46.9, contre 1.09 pour la taille de transfert de 50 M.

Équilibrer les performances et les coûts

Notre nœud Varnish CDN a été créé pour offrir des performances et une densité exceptionnelles. Non seulement avec la densité du rack de serveur 1U, mais également avec la densité de capacité fournie par les SSD Solidigm. Nous n'utilisons « que » les disques P30.72 de 5316 To aujourd'hui, mais il y a encore plus d'avantages disponibles avec les unités P61.44 de 5336 To. Mieux encore, la charge de travail CDN est extrêmement lourde en lecture, ce qui signifie que ces SSD basés sur QLC sont parfaits pour cette tâche. Par ailleurs, en examinant les chiffres de performances avec Varnish, leur ingénieur pensait que nous utilisions des SSD Gen5 parce que les performances des nœuds étaient très impressionnantes.

Si la densité des serveurs est un élément essentiel, un nœud CDN à coût optimisé en est une autre. Le serveur Supermicro monoprocesseur que nous avons utilisé ici fournit à Varnish de nombreuses puissances matérielles et options d'extension, tandis que les dix baies NVMe nous permettent d'accumuler plus de 600 To de stockage en utilisant le leadership en matière de capacité SSD de Solidigm. La performance relative par dollar, et si vous souhaitez approfondir un peu nos données, la performance par watt, les mesures ici sont incontestables.

Les CDN ont la tâche peu enviable de fournir des données à tout moment avec des demandes parfois prévisibles, souvent non. Un matériel de serveur finement réglé fait toute la différence en ce qui concerne les performances de ces nœuds CDN, qui sont de plus en plus poussés vers la périphérie. Grâce aux énormes SSD d'entreprise de Solidigm, ces nœuds peuvent améliorer considérablement les taux de réussite du cache, offrant ainsi une expérience client supérieure.

Logiciel de vernis

Stockage Solidigme

Ce rapport est sponsorisé par Solidigm. Tous les points de vue et opinions exprimés dans ce rapport sont basés sur notre vision impartiale du ou des produits à l'étude.

S'engager avec StorageReview

Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS