Accueil Entreprise Scale Computing : déballage pour être opérationnel en un rien de temps

Scale Computing : déballage pour être opérationnel en un rien de temps

by Harold Fritt

Scale Computing prétend avoir une solution pour HCI qui peut être installée en quelques minutes, mise en production en moins d'une heure et spécialement conçue pour les emplacements périphériques. Leader de l'edge computing, de la virtualisation et des solutions hyperconvergées, Scale Computing a conçu un système qui s'adapte parfaitement à la périphérie et peut être installé en quelques minutes. StorageReview a décidé de se charger de la tâche et de documenter les étapes du déballage à la mise en service pour voir si c'est aussi simple qu'ils le prétendent.

Scale Computing prétend avoir une solution pour HCI qui peut être installée en quelques minutes, mise en production en moins d'une heure et spécialement conçue pour les emplacements périphériques. Leader de l'edge computing, de la virtualisation et des solutions hyperconvergées, Scale Computing a conçu un système qui s'adapte parfaitement à la périphérie et peut être installé en quelques minutes. StorageReview a décidé de se charger de la tâche et de documenter les étapes du déballage à la mise en service pour voir si c'est aussi simple qu'ils le prétendent.

Scale Computing a envoyé un système à 3 nœuds, envoyé par e-mail les fiches techniques associées et mis en place un appel d'assistance pour parcourir l'installation si nous en avions besoin. Il s'agit du même processus qu'un client typique connaîtrait lors de l'achat d'un cluster Scale Computing HyperCore.

cluster à 3 nœuds de calcul à l'échelle

SC//HyperCore

SC//HyperCore élimine le besoin de logiciels de virtualisation traditionnels, de logiciels de reprise après sinistre, de serveurs et de stockage partagé, les remplaçant par un système entièrement intégré et hautement disponible pour l'exécution des applications. Grâce à la technologie brevetée HyperCore™, la plateforme d'autoréparation identifie, atténue et corrige automatiquement les problèmes d'infrastructure en temps réel, permettant aux applications d'atteindre une disponibilité maximale. Lorsque la facilité d'utilisation, la haute disponibilité et le coût total de possession sont importants, le Scale Computing HyperCore sur NUC 11 (le HE151) peut être la plate-forme d'infrastructure de votre organisation.

La première chose que nous avons remarquée lors de la cérémonie de déballage était la taille du HE151. Ces choses sont minuscules ! Basé sur la plate-forme Intel Next Unit of Computing (NUC) 11, le châssis mesure 117 x 112 x 54 [mm] (LxlxH). Consultez les spécifications du Scale Computing HyperCore sur NUC11 ci-dessous.

SC//Installation et configuration de la plate-forme

Lors du déballage de Scale Computing Platform, il sera essentiel de conserver ensemble le numéro de série du nœud et la clé logicielle associée, car ils devront correspondre lors de la configuration initiale du cluster. Suivre la fiche technique d'installation vous préparera aux prochaines étapes du processus de configuration.

La configuration initiale est simple. Placez les nœuds à l'emplacement souhaité, connectez-les à l'alimentation et branchez deux câbles Ethernet. Les deux câbles Ethernet assurent la redondance en cas de panne d'un commutateur ou d'une autre catastrophe. Les nœuds ne s'allumeront pas tant que le bouton d'alimentation n'aura pas été enfoncé à l'avant de l'unité. Pendant l'initialisation des serveurs, localisez les cartes avec les numéros de série et les clés logicielles pour chaque nœud.

Deux connexions HDMI sont disponibles à l'arrière de l'appareil. Connectez un câble à l'un des ports HDMI. J'espère qu'il y a un moniteur à l'autre bout de ce câble. Après environ une minute, le serveur demandera les informations de connexion. Il est important de noter que la connexion au système via la ligne de commande n'est nécessaire que lors de la configuration initiale.

Une fois les nœuds initialisés, l'accès se fera via l'interface graphique du gestionnaire de cluster. La connexion par défaut est admin/admin. Une fois connecté, l'invite suivante demande l'adresse IP pour accéder à l'interface utilisateur de la balance (informations fournies par Scale Computing). Ensuite, entrez l'adresse IP du nœud, suivie des invites pour le numéro de série du matériel et la clé logicielle. Les tirets sont facultatifs lors de la saisie de la clé dans le nœud.

C'est tout pour le nœud 1. Suivez maintenant ces mêmes étapes sur le nœud 2 et le nœud 3.

Une fois les trois nœuds initialisés, reconnectez-vous à chaque système pour saisir les commandes d'initialisation du nœud et du cluster. Une fois connecté, entrez "sudo scnodeinit" pour initialiser le nœud. L'exécution de cette commande prend environ une minute. Une fois cette commande terminée, entrez la deuxième commande, "sudo scclusterinit" pour demander au nœud de rejoindre le cluster lorsque les autres nœuds sont actifs. La commande cluster prend environ cinq minutes pour une petite installation. Un environnement de cluster plus grand prendra plus de temps à s'initialiser.

Une fois initialisé, le cluster sera accessible via l'interface utilisateur de Scale Computing. Connectez-vous à l'interface utilisateur de Scale Computing en utilisant les mêmes informations de connexion pour les nœuds (admin/admin). À ce stade, le cluster est prêt à charger le système d'exploitation souhaité. Si vous installez Windows Server 10, les pilotes appropriés s'installeront automatiquement.

Gestionnaire de cluster informatique à grande échelle

Scale Computing a rendu le gestionnaire de cluster aussi facile à utiliser que l'installation et la création du cluster. Il existe deux méthodes pour gérer le cluster Scale Computing : le gestionnaire de cluster local et l'accès au cloud Fleet Manager. Le gestionnaire de cluster local est une interface utilisateur graphique via le cluster installé. Nous n'avions qu'un cluster local à trois nœuds, ce serait donc généralement la méthode pour gérer une petite installation comme la nôtre.

Fleet Manager est une option cloud pour gérer les clusters installés dans des emplacements distants et l'outil de gestion pour accéder aux clusters installés de n'importe où. Le Fleet Manager est accessible via le cloud Scale Computing.
Lorsque vous achetez un système auprès de Scale Computing, il sera nécessaire de créer un compte sur Scale Edge pour l'assistance, les tickets ouverts, l'accès au logiciel, etc. Ces informations de connexion sont utilisées pour accéder à SC//Fleet Manager et sont spécifiques à votre système installé. groupes).

Gestion des clusters locaux

Voici des captures d'écran de notre cluster local. L'accès à l'interface graphique est fourni en se connectant à l'adresse IP du cluster local, généralement à partir du même réseau. L'interface est intuitive et facile à utiliser.

Les détails de chaque nœud du cluster sont affichés pour une identification facile. Les messages d'avertissement sont mis en surbrillance en haut à droite de l'écran, ainsi que le nom d'utilisateur et l'option de déconnexion. Il existe même une option pour discuter avec ScaleCare Support directement depuis la fenêtre de gestion.

Parce que notre installation était assez basique, les informations ne sont peut-être pas trop excitantes, mais c'est un outil précieux dans un environnement de production. Les options d'affichage sont disponibles sur le côté gauche de l'écran pour obtenir les détails de santé du cluster et des nœuds.

L'affichage est divisé, affichant les informations RAM ou DISK dans la moitié supérieure. Lorsque la vue RAM est sélectionnée, la section supérieure affiche également la machine virtuelle spécifique avec les détails de la mémoire allouée, utilisée et libre. Double-cliquez sur la machine virtuelle dans la section supérieure pour accéder à cette machine virtuelle et au système d'exploitation installé.

La section ci-dessous est basée sur la configuration spécifique à cette machine virtuelle. Au milieu de l'affichage se trouve l'accès global aux machines virtuelles de ce cluster. Il en va de même pour les icônes situées sur le côté gauche de la partie inférieure de l'écran. Les icônes dans chaque fenêtre de VM n'affecteront que la sortie de cette VM.

La sélection de l'icône d'engrenage affichera les configurations de toutes les machines virtuelles du cluster.

Il est possible de sélectionner des outils spécifiques au nœud et aux composants individuels et d'afficher le cluster. La sélection de l'icône d'engrenage dans la vue VM permet d'accéder au système de fichiers et au système d'exploitation installé, avec la possibilité d'éjecter des disques spécifiques. Selon la configuration de chaque nœud, il est possible de faire défiler chaque nœud pour obtenir les détails du système de fichiers. L'icône de la pile vous donnera des détails sur tous les instantanés et les options pour faire un instantané immédiat.

Changer la vue de RAM à DISQUE dans la section supérieure de la fenêtre de gestion modifiera l'affichage dans cette section. Il existe également une option pour exécuter des fonctions sur tous les nœuds du cluster simultanément en cliquant sur le détail de TOUTES les VM et en sélectionnant l'action dans le menu déroulant.

La sélection de l'icône d'engrenage sur la barre du milieu fournira plus d'options spécifiques au cluster. Chacune de ces options fournira plus de détails. L'écran ci-dessous détaille le journal du cluster.

La sélection de l'une des icônes spécifiques à la machine virtuelle permet de modifier la sortie d'affichage de ce nœud sans affecter les affichages sur le cluster restant. La sélection de l'icône d'engrenage sur une machine virtuelle particulière offre la possibilité d'effectuer des tests, un cycle d'alimentation, de vérifier les cibles de disque, etc.

Déplacer une machine virtuelle est rapide et facile

Déplacer une machine virtuelle est aussi simple qu'un glisser-déposer. Dans l'affichage du nœud, sélectionnez l'icône du compteur. Les icônes en bas de l'affichage du nœud changent et proposent des options pour la maintenance des utilisateurs, le déplacement d'une machine virtuelle, la suppression d'une machine virtuelle, le clonage et les instantanés.

Sélectionnez l'icône de déplacement (qui ressemble à une pile avec une partie qui dépasse à droite) pour déplacer une machine virtuelle. La sélection de cette option modifiera la moitié supérieure du gestionnaire et fournira le nœud disponible pour déplacer cette machine virtuelle spécifique. Sélectionnez le nœud pour déplacer la machine virtuelle.

Une fenêtre contextuelle s'affiche en bas à droite avec des informations concernant le déplacement.

Lorsque la VM a été déplacée, l'écran affiche le nouvel emplacement avec les détails de ce nœud.

Déplacer la machine virtuelle vers son emplacement d'origine est tout aussi simple.

L'affichage indiquera les modifications apportées lorsque la VM s'est déplacée vers l'emplacement sélectionné.

Plusieurs options existent pour vous faciliter la vie avec la vue nœud de la VM. Besoin de faire un clone d'une VM ? Sélectionnez l'icône à côté de la "caméra" pour afficher une fenêtre contextuelle avec tous les champs appropriés pour cloner une VM.

Les instantanés sont tout aussi simples. Cliquez sur la caméra et prenez un instantané. La fenêtre contextuelle offre la possibilité de donner une étiquette à l'instantané.

L'édition de la VM est rapide et accessible. La sélection de la clé affichera une zone d'édition pour modifier les paramètres de la machine virtuelle, le nom, le type de démarrage, etc.

La sélection de l'engrenage dans la vue VM fournira des options pour ajouter des disques et configurer les ports réseau.

Cliquez sur l'icône qui ressemble à un disque externe et fournissez les informations nécessaires pour ajouter un lecteur.

La dernière icône de la vue du nœud VM donne des options pour les commandes spécifiques à la VM.

Une fenêtre contextuelle est fournie pour faciliter l'exportation d'une machine virtuelle.

L'icône qui ressemble à une boîte avec une flèche pointant vers elle située sur le côté gauche de la barre centrale ouvrira une fenêtre contextuelle, fournissant les champs de saisie nécessaires pour importer la machine virtuelle HyperCore.

Le menu du centre de contrôle est accessible en sélectionnant l'icône d'engrenage dans la barre centrale. Cette section du gestionnaire de cluster local fournit les journaux, les conditions, les mises à jour logicielles, etc.

L'affichage est alphabétique, la première option étant le « Cluster Log ». Tous les événements s'afficheront dans cette fenêtre. Les événements présentés proviennent de certains tests que nous avons effectués précédemment. Nous avons effectué une coupure de courant forcée pour voir ce que le cluster ferait avec les machines virtuelles. Les détails seront donnés plus bas dans l'article.

"Conditions" affichera toute condition inhabituelle dans la configuration ou le cluster.

« Control » permet d'arrêter l'ensemble du cluster en un seul clic. Scale Computing demande à être contacté avant de s'arrêter, car le cluster communique également avec les services cloud de Scale pour la gestion et l'assistance à distance.

La sélection de "Médias" offre la possibilité de voir quels systèmes sont chargés et en cours d'exécution, ainsi que la possibilité de télécharger de nouvelles ISO.

Les clients avec des clusters distants déployés peuvent être consultés et gérés à partir de cet écran.

L'écran « Assistance à distance » renvoie à l'assistance Scale Computing pour connecter et dépanner les clusters.

Tous les horaires du système apparaîtront sur l'écran "Horaires".

Les paramètres système sont affichés sur cet écran.

Les certificats SSL peuvent être gérés à partir de cet écran.

Si Scale Computing dispose d'une mise à jour pour le cluster, celle-ci s'affichera sur cet écran en plus d'une invite "mises à jour disponibles" près du numéro de version en haut de l'écran. Cela permet à l'administrateur de gagner du temps en recherchant toutes les mises à jour disponibles.

De manière proactive, le cluster contacte Scale Computing pour valider que le cluster exécute la dernière version, garantissant que l'environnement a accès aux dernières fonctionnalités et améliorations ainsi qu'aux correctifs de bogues et de sécurité. Les mises à jour étant appliquées de manière continue, leur application est un non-événement pour l'utilisateur et toutes les connexions aux charges de travail exécutées sur le cluster.

S'il est nécessaire d'ajouter ou de modifier des informations sur l'utilisateur, cela peut être fait à partir de l'écran "Gestion des utilisateurs".

Il est également possible de contacter le support Scale Computing à partir de ce menu. Cela inclut des options pour ouvrir des tickets en tant que client ou partenaire, ou si une réponse immédiate est nécessaire, le numéro pour composer le support est affiché. Il existe des liens vers la documentation et l'accès à la communauté des utilisateurs.

Scale Computing utilise très efficacement le concept de communauté. Il existe un emplacement Web distinct où les utilisateurs peuvent partager des informations, demander de l'aide à d'autres, vérifier les options de configuration, etc. Il s'agit d'un excellent outil pour quiconque déploie ces clusters.

Que se passe-t-il si un nœud tombe en panne dans un cluster de calcul à l'échelle ?

Nous voulions voir comment le cluster gérerait un cycle d'alimentation brusque, donc la prise a été débranchée sur l'un des nœuds. Nous avons documenté la séquence des événements, avec des messages système allant de la panne de courant au rétablissement de l'alimentation.

Une fois la prise retirée du nœud TestVM2, le compteur d'alarmes (situé dans le coin supérieur droit de l'écran) a augmenté de un et une fenêtre contextuelle en bas à droite a indiqué un problème de redondance.

En regardant le journal du cluster dans Control Center, les messages d'erreur indiquaient un nœud inaccessible avec des messages d'avertissement, critiques et d'avertissement. L'interface utilisateur SC//HyperCore a également affiché de nouveaux messages dans le coin inférieur droit. Ces fenêtres contextuelles s'afficheraient quel que soit l'écran actuel.

La vue du nœud en haut de l'écran du gestionnaire indiquait que la machine virtuelle était hors ligne. Les compteurs d'erreurs dans le coin supérieur droit ont également augmenté, indiquant des erreurs supplémentaires.

Les alarmes d'information ont été effacées pour ne fournir que les alarmes actuelles afin de se concentrer sur le problème en cours.

Cette vue montre que la machine virtuelle du nœud défaillant a été déplacée vers l'un des autres nœuds. Il s'agissait d'un processus automatisé qui ne nécessitait aucune intervention. Les ressources de TestVM1 ont été mises à jour pour refléter les charges, l'utilisation du disque et la disponibilité.

Le journal du cluster a également été mis à jour pour indiquer le nouvel emplacement de la machine virtuelle à partir du nœud défaillant, affiché sous la forme d'une alarme d'information puisque la machine virtuelle était de retour et en cours d'exécution.

Maintenant que la machine virtuelle avait démarré et était disponible pour les utilisateurs, le nœud "en panne" était branché et mis sous tension.

Une fois le nœud disponible, le journal du cluster indiquait que la machine virtuelle rejoindrait le cluster d'origine.

Le nœud est affiché comme disponible via le fond de panier et les alarmes ont été effacées des indicateurs en haut de l'écran du gestionnaire. Les pop-ups se sont également effacés.

Il s'agit d'une vue plus large des informations affichées par les fenêtres contextuelles lorsque la machine virtuelle a tenté de rejoindre le nœud préféré.

L'affichage indique que le nœud est en ligne, mais que la VM n'a pas migré.

Une fois que la machine virtuelle est revenue au nœud préféré, l'écran a été mis à jour avec l'emplacement et les ressources ont été restaurées à la normale. Le journal indique également que la machine virtuelle est revenue au nœud préféré.

Et tout est revenu à son état d'origine.

Le principal point à retenir de cette séquence est que l'ensemble du processus était automatique. Rien n'a été configuré sur le cluster pour forcer un déplacement de la machine virtuelle à partir d'un nœud défaillant. Le cluster Scale a pris en charge tous les processus, de la mise hors tension à la mise sous tension et au redémarrage.

S'il est nécessaire d'arrêter un nœud, Scale Computing demande que l'assistance soit contactée avant d'arrêter le système, ce qui envoie une alarme au système distant.

Le gestionnaire de cluster local fournit de nombreuses informations et la configuration globale. En cas de panne, le gestionnaire de cluster fournit des détails immédiats et des actions automatiques prises par le cluster.

Gestion à distance SC//Fleet Manager

Scale Computing Fleet Manager est le premier outil de surveillance et de gestion hébergé dans le cloud conçu pour une infrastructure informatique de pointe hyperconvergée à grande échelle. SC//Fleet Manager facilite la surveillance et la gestion sécurisées d'un parc complet de clusters exécutant Scale Computing HyperCore. Pour les responsables informatiques disposant de plusieurs clusters, le temps de maintenance sera réduit de 50 % ou plus grâce à la simplicité conçue dans cette plate-forme.

SC//Fleet Manager consolide les conditions en temps réel et l'utilisation des ressources pour tous les clusters SC//HyperCore. SC//Fleet Manager élimine le besoin de naviguer vers des interfaces utilisateur de cluster individuelles, donnant aux gestionnaires la possibilité de regarder chaque cluster à partir d'un seul volet de verre.

Fonctionnalités SC//Fleet Manager :

  • Vérifiez la connectivité et la santé d'un coup d'œil depuis n'importe quel navigateur sur n'importe quel appareil, même mobile
  • Explorez un cluster spécifique pour diagnostiquer et résoudre les problèmes
  • Afficher l'utilisation du processeur et du disque en temps réel au niveau du cluster, du nœud et de la machine virtuelle
  • Accédez à la connexion HyperCore de n'importe quel cluster
  • Afficher le micrologiciel actuel de tous les clusters en un coup d'œil
  • Appliquez une mise à niveau du micrologiciel à un cluster en un seul clic depuis SC//Fleet Manager
  • Surveillez les mises à niveau du micrologiciel en temps réel pour les clusters de l'ensemble de la flotte à partir d'un seul écran

SC//Fleet Manager en action

La connexion au SC//Fleet Manager hébergé dans le cloud fournit des informations détaillées sur tous les clusters dans le monde. L'aspect et la convivialité de l'interface graphique sont similaires à ceux du gestionnaire local.

Il y a des icônes sur le côté gauche de l'écran pour accéder au cluster, exécuter des fonctions de gestion spécifiques et ajouter des détails sur les utilisateurs et l'organisation.

Il s'agit de la vue du cluster avec des détails sur l'intégrité et l'utilisation de la mémoire, du disque et du processeur.

Cliquer sur l'icône du compteur de vitesse changera l'affichage en une vue de tableau de bord détaillant les événements de cluster et de nœud.

Les fonctions spécifiques au nœud sont accessibles en sélectionnant l'icône de prise.

Cliquer sur l'icône de l'utilisateur affiche un écran permettant d'ajouter ou de modifier des comptes d'utilisateurs.

L'icône d'engrenage affichera les détails de l'organisation.

En haut à droite de l'écran, vous avez la possibilité de discuter avec l'assistance ou de consulter la documentation sans vous connecter à un autre système. L'autre icône déconnectera l'utilisateur de l'outil SC//Fleet Manager.

SC // Consommation électrique de la plate-forme

Fonctionnant sur la plate-forme compacte et efficace Intel NUC 11, ce cluster SC//HyperCore est très économe en énergie. Compte tenu des options de déploiement flexibles pour le cluster Scale Computing, nous avons mesuré la consommation électrique du cluster au démarrage et en fonctionnement normal à l'aide de notre analyseur de puissance XiTRON XT2640.

L'analyseur a montré que la puissance augmentait à mesure que chaque nœud s'allumait pendant le processus de démarrage. Nous avons retardé d'environ 5 secondes l'appui sur le bouton d'alimentation de chaque nœud pour voir l'augmentation du tirage de chaque nœud. L'analyseur a mesuré une consommation électrique de crête inférieure à 150 watts pendant le processus de démarrage rapide avant de réduire sa consommation électrique de base.

Avec le cluster à 3 nœuds en ligne et nos 3 VM actives, la consommation totale d'énergie sur le cluster est restée comprise entre 90 et 115 watts. Il s'agit d'une fraction de ce qu'un seul serveur complet consommerait, ce qui rend ces nœuds compacts déployables pour pratiquement n'importe quel emplacement.

Demandez à la communauté Scale Computing

Scale Computing a une communauté d'utilisateurs très active. À tel point qu'il existe un site Web dédié aux utilisateurs et aux abonnés pour poser des questions, publier des résolutions, obtenir des conseils et interagir avec d'autres utilisateurs de Scale Computing. Bien sûr, si la réponse n'est pas disponible sur le site communautaire, il y a toujours une assistance 24h/7 et XNUMXj/XNUMX.

Le site communautaire est disponible sur Communauté.scalecomputing.com. L'inscription est également simple. Les utilisateurs enregistrés peuvent consulter la base de connaissances à partir de la page d'accueil, ouvrir un cas ou vérifier l'état, obtenir de l'aide à l'intégration, accéder aux forums d'utilisateurs et télécharger des mises à jour logicielles. Scale Computing a déployé beaucoup d'efforts pour maintenir ce type d'accès.

Harrison Steel Castings Company – Un adopteur précoce

Lorsque l'on considère où les petits clusters HCI peuvent ajouter de la valeur, les applications de périphérie apparaissent immédiatement au sommet. Le marché de la périphérie est en plein essor en ce moment, avec tant d'opportunités pour une solution petite et simple à installer et à exploiter. Le commerce de détail est une priorité, suivi probablement de près par la sécurité. Mais à quelle distance de la liste une entreprise de fonderie d'acier atterrirait-elle dans notre scénario de pointe ?

Entrer Société de moulage d'acier Harrison. Le client de Scale Computing, Harrison Steel Castings Company, a accepté de passer quelques minutes à partager son expérience avec la solution HyperCore de Scale Computing.

Comme son nom l'indique, la société Indiana est spécialisée dans la production de solutions de moulage d'acier de précision. Chacun de ces moulages peut prendre des semaines à produire, les moulages inappropriés devant être mis au rebut dans leur intégralité s'ils sont jugés défectueux.

Les pièces moulées en acier ne sont pas aussi simples qu'elles pourraient le sembler. Certaines étapes du processus nécessitent des vibrations spécifiques, l'ajout de matière fondue mesurée et la surveillance de la température, pour n'en nommer que quelques-unes. Harrison avait besoin d'une solution rentable, facile à gérer et fiable pour l'aider à collecter ces données de capteur.

Ce problème de périphérie industrielle est très courant. Les entreprises découvrent que si elles peuvent suivre efficacement des éléments tels que l'humidité, les vibrations, le PSI, les données de télémétrie des machines et d'autres données vitales, ces nouvelles informations exploitables auront un impact sur les opérations commerciales et la rentabilité.

Harrison est investi dans ce voyage d'analyse. Ils essaient de découvrir comment leurs ingénieurs peuvent mieux utiliser les données pour réduire le gaspillage et, en fin de compte, augmenter l'efficacité et la rentabilité. Leur cluster HE150 HCI d'origine gère cette tâche assez efficacement, assis dans l'atelier en tant qu'agrégateur de toutes ces données de capteur. Chaque nuit, Harrison regroupe les données et les amène dans leur centre de données principal qui contient les plus grands systèmes HCI de Scale Computing pour un traitement et une analyse plus poussés.

Après une preuve de concept réussie de six mois, ils ont acheté un cluster de production. Le cluster de production H150 a été placé dans un environnement de test pendant six mois et a finalement été mis en production. Ce cluster de production fonctionne depuis six mois sans aucune plainte sur aucune unité depuis le premier jour.

Shane Rogers, directeur informatique, Harrison Steel Castings, a été impliqué dans l'installation de la plate-forme de calcul d'échelle depuis le début et a défendu la collecte de données à des fins d'analyse. Interrogé sur la fiabilité et les pannes, Shane a déclaré :

« Nous avons conservé le cluster POC, et ceux-ci tournent depuis près de deux ans sans défaillance. Un environnement de fonderie n'est pas joli. La micropoussière est un énorme problème auquel nous sommes confrontés. Donc, pour rester au top du système, je vais faire échouer mes nœuds de production de temps en temps juste pour tester le basculement. Et ils fonctionnent parfaitement. Je vais déplacer les nœuds sur le cluster juste pour m'assurer que chaque nœud est utilisé efficacement. »

En fin de compte, c'est cette facilité de gestion qui offre d'énormes avantages à Harrison. La simplicité de mise en place du système au jour 0 est excellente, comme nous l'avons vu lors de nos tests en laboratoire. Pourtant, les avantages opérationnels continus à partir de là peuvent être difficiles à quantifier, mais les clients l'apprécient.

Réflexions finales

Scale Computing HyperCore sur NUC11 tient ses promesses. Les gens de Scale Computing nous ont dit qu'il était possible d'avoir un cluster HyperCore opérationnel en 30 minutes, et ils ont fait mouche. L'installation et la configuration sont intuitives avec un ensemble d'outils faciles à naviguer. Bien sûr, Scale Computing fournit une assistance via Zoom et peut guider n'importe qui tout au long du processus pour s'assurer qu'il n'y a pas d'accrocs en cours de route.

Les étapes ont été précisées avec les fiches techniques fournies avant l'installation des nœuds, il n'y a donc pas eu de surprises pendant le processus.

Calcul à l'échelle

Transformation Edge Computing, propulsée par Intel®

Scale Computing Platform est un kit Intel IoT RFP Ready (Intel RRK). Les Intel RRK sont des offres technologiques ciblées qui résolvent une classe de problèmes du marché, ont été déployées et testées sur le terrain, et fournissent du matériel, des logiciels et une assistance groupés. La technologie est évolutive et conçue pour évoluer avec les besoins des clients, ce qui permet d'accélérer le développement et la mise sur le marché.

Intel offre des performances économes en énergie et une intelligence optimisée pour les entreprises. Grâce à la technologie de vision et aux capacités d'apprentissage en profondeur à la périphérie, votre entreprise peut réaliser de nouveaux cas d'utilisation et des temps de réponse plus rapides. Notre suite intégrée de fonctionnalités de sécurité de base facilite la mise en œuvre d'un modèle de sécurité cohérent qui aide à protéger contre un large éventail de menaces.1

Grâce à une large prise en charge de la connectivité, Intel rationalise le partage de données entre les appareils et le cloud. Nos technologies spécialisées de virtualisation vous aident à simplifier votre environnement informatique, en augmentant l'efficacité et la valeur de vos investissements technologiques. Et parce que les produits Intel sont conçus pour une grande fiabilité et une longue durée de vie, vous pouvez compter sur une assistance pendant des années.

Les solutions disponibles aujourd'hui rendent la mise en œuvre simple et transparente. Le résultat signifie une pleine capacité à développer et à distribuer rapidement de nouvelles technologies sans complexité architecturale ni limitation du personnel informatique.

1Aucun système informatique ne peut être absolument sûr. Vérifiez auprès du fabricant ou du revendeur de votre système, ou apprenez-en plus sur intel.com.

Ce rapport est parrainé par Scale Computing Tous les points de vue et opinions exprimés dans ce rapport sont basés sur notre vision impartiale du ou des produits à l'étude.

S'engager avec StorageReview

Infolettre |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | Flux RSS