Inicio Empresa Informática a escala: desde el desembalaje hasta el funcionamiento en muy poco tiempo

Informática a escala: desde el desembalaje hasta el funcionamiento en muy poco tiempo

by harold fritts

Scale Computing afirma tener una solución para HCI que se puede instalar en minutos, poner en producción en menos de una hora y está diseñada específicamente para ubicaciones de borde. Scale Computing, líder en computación perimetral, virtualización y soluciones hiperconvergentes, ha diseñado un sistema que se adapta perfectamente al perímetro y se puede instalar en minutos. StorageReview decidió encargarse de la tarea y documentar los pasos desde el desempaquetado hasta la puesta en marcha para ver si es tan fácil como afirman.

Scale Computing afirma tener una solución para HCI que se puede instalar en minutos, poner en producción en menos de una hora y está diseñada específicamente para ubicaciones de borde. Scale Computing, líder en computación perimetral, virtualización y soluciones hiperconvergentes, ha diseñado un sistema que se adapta perfectamente al perímetro y se puede instalar en minutos. StorageReview decidió encargarse de la tarea y documentar los pasos desde el desempaquetado hasta la puesta en marcha para ver si es tan fácil como afirman.

Scale Computing envió un sistema de 3 nodos, envió por correo electrónico las hojas de datos asociadas y programó una llamada de soporte para revisar la instalación si la necesitábamos. Este es el mismo proceso que experimentaría un cliente típico al comprar un clúster HyperCore de Scale Computing.

Clúster de 3 nodos de computación a escala

SC//Hipernúcleo

SC//HyperCore elimina la necesidad de software de virtualización tradicional, software de recuperación ante desastres, servidores y almacenamiento compartido, reemplazándolos con un sistema totalmente integrado y de alta disponibilidad para ejecutar aplicaciones. Con la tecnología patentada HyperCore™, la plataforma de autorreparación identifica, mitiga y corrige automáticamente los problemas de infraestructura en tiempo real, lo que permite que las aplicaciones logren el máximo tiempo de actividad. Cuando la facilidad de uso, la alta disponibilidad y el costo total de propiedad son importantes, Scale Computing HyperCore en NUC 11 (HE151) podría ser la plataforma de infraestructura para su organización.

Lo primero que notamos durante la ceremonia de desempaquetado fue el tamaño del HE151. ¡Estas cosas son diminutas! Basado en la plataforma Intel Next Unit of Computing (NUC) 11, el chasis mide 117 x 112 x 54 [mm] (LxWxH). Consulte las especificaciones de Scale Computing HyperCore en NUC11 a continuación.

Instalación y configuración de la plataforma SC//

Al desempaquetar Scale Computing Platform, será esencial mantener juntos el número de serie del nodo y la clave de software asociada, ya que deberán coincidir durante la configuración inicial del clúster. Seguir la hoja de datos de instalación lo preparará para los siguientes pasos en el proceso de configuración.

La configuración inicial es simple. Coloque los nodos en la ubicación deseada, conéctelos a la alimentación y conecte dos cables Ethernet. Los dos cables Ethernet proporcionan redundancia en caso de falla del interruptor u otra catástrofe. Los nodos no se encenderán hasta que se presione el botón de encendido en la parte frontal de la unidad. Mientras se inicializan los servidores, localice las tarjetas con los números de serie y las claves de software para cada nodo.

Hay dos conexiones HDMI disponibles en la parte posterior de la unidad. Conecte un cable a uno de los puertos HDMI. Con suerte, hay un monitor en el otro extremo de ese cable. Después de aproximadamente un minuto, el servidor le pedirá la información de inicio de sesión. Es importante tener en cuenta que iniciar sesión en el sistema a través de la línea de comandos solo es necesario durante la configuración inicial.

Una vez inicializados los nodos, el acceso se realizará a través de la GUI del Administrador de clústeres. El inicio de sesión predeterminado es admin/admin. Una vez que haya iniciado sesión, el siguiente mensaje solicita la dirección IP para acceder a la interfaz de usuario de la báscula (información proporcionada por Scale Computing). Luego, ingrese la dirección IP del nodo, seguido de las solicitudes del número de serie del hardware y la clave del software. Los guiones son opcionales al ingresar la clave en el nodo.

Eso es todo para el nodo 1. Ahora siga esos mismos pasos en el nodo 2 y el nodo 3.

Después de inicializar los tres nodos, vuelva a iniciar sesión en cada sistema para ingresar los comandos para inicializar el nodo y el clúster. Una vez que haya iniciado sesión, ingrese "sudo scnodeinit" para inicializar el nodo. Este comando tarda aproximadamente un minuto en completarse. Una vez que se haya completado ese comando, ingrese el segundo comando, "sudo scclusterinit" para indicarle al nodo que se una al clúster cuando los otros nodos estén activos. El comando de clúster tarda unos cinco minutos en completarse para una instalación pequeña. Un entorno de clúster más grande tardará más en inicializarse.

Una vez inicializado, se podrá acceder al clúster a través de la interfaz de usuario de Scale Computing. Inicie sesión en la interfaz de usuario de Scale Computing con la misma información de inicio de sesión para los nodos (admin/admin). En este punto, el clúster está listo para cargar el sistema operativo deseado. Si instala Windows Server 10, los controladores apropiados se instalarán automáticamente.

Administrador de clústeres de computación a escala

Scale Computing ha hecho que el administrador de clústeres sea tan fácil de usar como instalar y crear el clúster. Hay dos métodos para administrar Scale Computing Cluster: administrador de clúster local y acceso a la nube de Fleet Manager. El administrador de clústeres local es una interfaz gráfica de usuario a través del clúster instalado. Solo teníamos un clúster local de tres nodos, por lo que este suele ser el método para administrar una instalación pequeña como la nuestra.

Fleet Manager es una opción en la nube para administrar los clústeres instalados en ubicaciones remotas y la herramienta de administración para acceder a los clústeres instalados desde cualquier lugar. Se accede a Fleet Manager a través de la nube Scale Computing.
Cuando compre un sistema de Scale Computing, será necesario configurar una cuenta en Scale Edge para soporte, abrir tickets, acceso al software, etc. Esa información de inicio de sesión se usa para acceder a SC//Fleet Manager y es específica para su sistema instalado. clúster(es).

Gestión de clústeres locales

Las siguientes son capturas de pantalla de nuestro clúster local. El acceso a la GUI se proporciona conectándose a la dirección IP del clúster local, normalmente desde la misma red. La interfaz es intuitiva y fácil de usar.

Los detalles de cada nodo en el clúster se muestran para una fácil identificación. Los mensajes de advertencia se resaltan en la parte superior derecha de la pantalla, junto con el nombre de usuario y la opción para cerrar sesión. Incluso hay una opción para chatear con ScaleCare Support directamente desde la ventana de administración.

Debido a que nuestra instalación fue bastante básica, la información puede no ser demasiado interesante, pero esta es una herramienta valiosa en un entorno de producción. Las opciones de visualización están disponibles en el lado izquierdo de la pantalla para obtener los detalles de salud del clúster y los nodos.

La pantalla está dividida y muestra información de RAM o DISK en la mitad superior. Cuando se selecciona la vista de RAM, la sección superior también mostrará la VM específica con detalles de memoria asignada, utilizada y libre. Al hacer doble clic en la máquina virtual en la sección superior, accederá a esa máquina virtual y al sistema operativo instalado.

La siguiente sección se basa en la configuración específica de esa máquina virtual. En el centro de la pantalla se encuentra el acceso global a las máquinas virtuales en ese clúster. Lo mismo se aplica a los iconos del lado izquierdo de la parte inferior de la pantalla. Los íconos dentro de cada ventana de VM afectarán la salida solo para esa VM.

Al seleccionar el ícono de ajustes, se mostrarán las configuraciones para todas las máquinas virtuales en el clúster.

Es posible seleccionar herramientas específicas para el nodo y los componentes individuales y ver el clúster. Al seleccionar el ícono de ajustes dentro de la vista de VM, se brinda acceso al sistema de archivos y al sistema operativo instalado, con la capacidad de expulsar discos específicos. Dependiendo de la configuración de cada nodo, existe la posibilidad de desplazarse por cada nodo para obtener detalles del sistema de archivos. El ícono de la pila le dará detalles sobre las instantáneas y las opciones para hacer una instantánea inmediata.

Cambiar la vista de RAM a DISCO en la sección superior de la ventana de administración cambiará la visualización en esa sección. También hay una opción para realizar funciones en todos los nodos del clúster simultáneamente haciendo clic en el detalle de TODAS las máquinas virtuales y seleccionando la acción en el menú desplegable.

Al seleccionar el ícono de ajustes en la barra central, se proporcionarán más opciones específicas para el clúster. Cada una de esas opciones proporcionará más detalles. La siguiente pantalla detalla el registro del clúster.

Seleccionar uno de los íconos específicos de la VM hace posible cambiar la salida de visualización de ese nodo sin afectar las visualizaciones en el clúster restante. Seleccionar el icono de engranaje en una máquina virtual en particular brinda la opción de realizar pruebas, apagar y encender, verificar los objetivos del disco, etc.

Mover una máquina virtual es rápido y fácil

Mover una máquina virtual es tan simple como arrastrar y soltar. Dentro de la pantalla del nodo, seleccione el icono del medidor. Los íconos en la parte inferior de la pantalla del nodo cambian y brindan opciones para el mantenimiento del usuario, mover una VM, eliminar una VM, clonar e instantáneas.

Seleccione el icono de movimiento (que parece una pila con una parte que sobresale hacia la derecha) para mover una máquina virtual. Al seleccionar eso, se cambiará la mitad superior del administrador y se proporcionará el nodo disponible para mover esa máquina virtual específica. Seleccione el nodo para mover la máquina virtual.

Se muestra una ventana emergente en la parte inferior derecha con información sobre el movimiento.

Cuando la máquina virtual se haya movido, la pantalla mostrará la nueva ubicación con detalles para ese nodo.

Mover la máquina virtual de vuelta a la ubicación original es igual de simple.

La pantalla indicará los cambios realizados cuando la máquina virtual se haya movido a la ubicación seleccionada.

Existen varias opciones para hacer la vida más fácil con la vista de nodo de la VM. ¿Necesita hacer un clon de una máquina virtual? Seleccione el ícono junto a la "cámara" para mostrar una ventana emergente con todos los campos apropiados para clonar una VM.

Las instantáneas son igual de simples. Haga clic en la cámara y tome una instantánea. La ventana emergente brinda la oportunidad de asignar una etiqueta a la instantánea.

La edición de la máquina virtual es rápida y accesible. Al seleccionar la llave inglesa, se mostrará un cuadro de edición para cambiar los parámetros, el nombre, el tipo de arranque, etc. de la máquina virtual.

Seleccionar el engranaje en la vista de VM proporcionará opciones para agregar discos y configurar puertos de red.

Haga clic en el icono que parece un disco externo y proporcione la información necesaria para agregar una unidad.

El último ícono en la vista del nodo de VM ofrece opciones para comandos específicos de VM.

Se proporciona una ventana emergente para que la exportación de una máquina virtual sea sencilla.

El ícono que parece un cuadro con una flecha que apunta hacia él, ubicado en el lado izquierdo de la barra central, abrirá una ventana emergente que proporciona los campos de entrada necesarios para importar la máquina virtual HyperCore.

Se puede acceder al menú del centro de control seleccionando el ícono de ajustes en la barra central. Esta sección del administrador de clústeres local proporciona registros, condiciones, actualizaciones de software, etc.

La pantalla es alfabética, siendo la primera opción el "Registro de clúster". Todos los eventos se mostrarán en esta ventana. Los eventos que se muestran son de algunas pruebas que hicimos anteriormente. Realizamos un corte de energía forzado para ver qué haría el clúster con las máquinas virtuales. Los detalles se darán más adelante en el artículo.

"Condiciones" mostrará cualquier condición inusual dentro de la configuración o el clúster.

"Control" permite que todo el clúster se apague con un solo clic. Scale Computing solicita que se contacten con ellos antes de cerrar porque el clúster también se comunica con los servicios en la nube de Scale para administración y soporte remotos.

Seleccionar "Medios" brinda la capacidad de ver qué sistemas están cargados y en ejecución y también la opción de cargar nuevos ISO.

Los clientes con clústeres remotos implementados pueden ser accedidos y administrados desde esta pantalla.

La pantalla "Soporte remoto" se vincula con el soporte de Scale Computing para conectar y solucionar problemas de clústeres.

Todos los horarios del sistema se mostrarían en la pantalla "Horarios".

Los ajustes del sistema se muestran en esta pantalla.

Los certificados SSL se pueden administrar desde esta pantalla.

Si Scale Computing tiene una actualización para el clúster, se mostrará en esta pantalla además de un mensaje de "actualizaciones disponibles" cerca del número de versión en la parte superior de la pantalla. Le ahorra tiempo al administrador al buscar las actualizaciones disponibles.

De forma proactiva, el clúster se comunica con Scale Computing para validar que el clúster está ejecutando la última versión, lo que garantiza que el entorno tenga acceso a las funciones y mejoras más recientes junto con las correcciones de errores y seguridad. Dado que las actualizaciones se aplican de forma continua, la aplicación de estas no es un evento para el usuario ni para ninguna conexión con las cargas de trabajo que se ejecutan en el clúster.

Si surgiera la necesidad de agregar o cambiar la información del usuario, eso se puede hacer desde la pantalla "Administración de usuarios".

También es posible ponerse en contacto con Scale Computing Support desde este menú. Esto incluye opciones para abrir tickets como cliente o socio, o si se necesita una respuesta inmediata, se muestra el número para marcar soporte. Hay enlaces a documentación y acceso a la comunidad de usuarios.

Scale Computing utiliza el concepto de comunidad de manera muy efectiva. Hay una ubicación web separada donde los usuarios pueden compartir información, pedir ayuda a otros, verificar las opciones de configuración y más. Esta es una excelente herramienta para cualquiera que implemente estos clústeres.

¿Qué sucede si falla un nodo en un clúster de computación a escala?

Queríamos ver cómo lidiaría el clúster con un ciclo de energía abrupto, así que desconectamos uno de los nodos. Documentamos la secuencia de eventos, con mensajes del sistema desde falla de energía hasta restauración de energía.

Después de desconectar el nodo TestVM2, el contador de alarmas (ubicado en la esquina superior derecha de la pantalla) aumentó en uno y una ventana emergente en la parte inferior derecha indicó un problema con la redundancia.

Mirando el registro del clúster en Control Center, los mensajes de error indicaron un nodo inaccesible con mensajes de aviso, críticos y de advertencia. La interfaz de usuario de SC//HyperCore también mostraba nuevos mensajes en la esquina inferior derecha. Estas ventanas emergentes se mostrarían sin importar la pantalla actual.

La vista de nodo en la parte superior de la pantalla del administrador indicaba que la máquina virtual estaba fuera de línea. Los contadores de errores en la esquina superior derecha también aumentaron, lo que indica errores adicionales.

Las alarmas de información se borraron para proporcionar solo las alarmas actuales para centrarse en el problema en cuestión.

Esta vista muestra que la máquina virtual del nodo fallido se movió a uno de los otros nodos. Este fue un proceso automatizado que no requirió ninguna intervención. Los recursos de TestVM1 se actualizaron para reflejar las cargas, el uso del disco y la disponibilidad.

El registro del clúster también se actualizó para indicar la nueva ubicación de la máquina virtual desde el nodo fallido, que se muestra como una alarma de información ya que la máquina virtual estaba funcionando nuevamente.

Ahora que la máquina virtual se había iniciado y estaba disponible para los usuarios, el nodo "fallido" se conectó y encendió.

Una vez que el nodo estuvo disponible, el registro del clúster indicó que la máquina virtual se volvería a unir al clúster original.

El nodo se muestra como disponible a través del backplane y las alarmas se borraron de los indicadores en la parte superior de la pantalla del administrador. Las ventanas emergentes también se estaban borrando.

Esta es una vista más amplia de la información que reflejaron las ventanas emergentes cuando la máquina virtual intentó volver a unirse al nodo preferido.

La pantalla muestra que el nodo está en línea, pero la máquina virtual no ha migrado.

Una vez que la máquina virtual regresó al nodo preferido, la pantalla se actualizó con la ubicación y los recursos se restauraron a la normalidad. El registro también indica que la VM había regresado al nodo preferido.

Y todo vuelve a su estado original.

La conclusión principal de esta secuencia es que todo el proceso fue automático. No se configuró nada en el clúster para forzar un movimiento de la VM desde un nodo fallido. El clúster Scale se encargó de todos los procesos, desde el apagado hasta el encendido y el reinicio.

Si es necesario apagar un nodo, Scale Computing solicita que se contacte al soporte antes de apagar el sistema, lo que envía una alarma al sistema remoto.

El administrador de clústeres local proporciona mucha información y la configuración general. En caso de falla, el administrador de clúster proporciona detalles inmediatos y acciones automáticas realizadas por el clúster.

SC//Gestor de flota Gestión remota

Scale Computing Fleet Manager es la primera herramienta de administración y monitoreo alojada en la nube creada para la infraestructura informática de borde hiperconvergente a escala. SC//Fleet Manager facilita el monitoreo y la administración segura de una flota completa de clústeres que ejecutan Scale Computing HyperCore. Para los administradores de TI con varios clústeres, el tiempo de mantenimiento se reducirá en un 50 % o más con la simplicidad diseñada en esta plataforma.

SC//Fleet Manager consolida las condiciones en tiempo real y la utilización de recursos para todos los clústeres SC//HyperCore. SC//Fleet Manager elimina la necesidad de navegar a las interfaces de usuario de clústeres individuales, lo que brinda a los administradores la capacidad de ver cada clúster desde un único panel de vidrio.

Características de SC//Fleet Manager:

  • Verifique la Conectividad y la Salud con un vistazo rápido desde cualquier navegador en cualquier dispositivo, incluso móvil
  • Profundice en un clúster específico para diagnosticar y solucionar cualquier problema
  • Vea la utilización de la CPU y el disco en tiempo real en los niveles de clúster, nodo y máquina virtual
  • Profundice hasta el inicio de sesión de HyperCore de cualquier clúster
  • Vea el firmware actual de todos los clústeres de un vistazo
  • Aplique una actualización de firmware a un clúster con un solo clic desde SC//Fleet Manager
  • Supervise las actualizaciones de firmware en tiempo real para los clústeres de toda la flota desde un único panel de control

SC//Gerente de flota en acción

Iniciar sesión en SC//Fleet Manager alojado en la nube proporciona información detallada sobre todos los clústeres a nivel mundial. La apariencia de la GUI es similar a la del administrador local.

Hay iconos en el lado izquierdo de la pantalla para acceder al clúster, realizar funciones de administración específicas y agregar usuarios y detalles de la organización.

Esta es la vista del clúster con detalles de salud y uso de memoria, disco y CPU.

Al hacer clic en el ícono del velocímetro, la pantalla cambiará a una vista de tablero que detalla los eventos del clúster y del nodo.

Se accede a las funciones específicas del nodo seleccionando el icono del enchufe.

Al hacer clic en el icono de usuario, aparece una pantalla para agregar o modificar cuentas de usuario.

El icono de engranaje mostrará los detalles de la organización.

En la parte superior derecha de la pantalla, hay una opción para chatear con el soporte o ver la documentación sin iniciar sesión en otro sistema. El otro ícono cerrará la sesión del usuario en la herramienta SC//Fleet Manager.

SC//Consumo de energía de la plataforma

Al ejecutarse en la plataforma Intel NUC 11 compacta y eficiente, este clúster SC//HyperCore es muy amigable con la energía. Dadas las opciones de implementación flexibles para el clúster Scale Computing, medimos el consumo de energía del clúster en el inicio y las operaciones normales utilizando nuestro analizador de energía XiTRON XT2640.

El analizador mostró que la potencia aumentaba a medida que se encendía cada nodo durante el proceso de inicio. Retrasamos la pulsación del botón de encendido en cada nodo unos 5 segundos para ver el mayor consumo de cada nodo. El analizador midió un consumo máximo de energía de menos de 150 vatios durante el proceso de inicio rápido antes de reducir su consumo de energía de referencia.

Con el clúster de 3 nodos en línea y nuestras 3 VM activas, el uso total de energía en el clúster se mantuvo entre 90 y 115 vatios. Esto es una fracción de lo que consumiría un solo servidor de tamaño completo, lo que hace que estos nodos compactos se puedan implementar en prácticamente cualquier ubicación.

Pregunte a la comunidad de Scale Computing

Scale Computing tiene una comunidad de usuarios muy activa. Tanto es así que hay un sitio web dedicado para que los usuarios y suscriptores hagan preguntas, publiquen resoluciones, obtengan consejos e interactúen con otros usuarios de Scale Computing. Por supuesto, si la respuesta no está disponible en el sitio de la comunidad, siempre hay soporte 24/7.

El sitio de la comunidad está disponible en Comunidad.scalecomputing.com. Registrarse también es simple. Los usuarios registrados pueden consultar la base de conocimientos desde la página de inicio, abrir un caso o comprobar el estado, obtener ayuda para la incorporación, acceder a los foros de usuarios y descargar actualizaciones de software. Scale Computing se ha esforzado mucho en mantener este tipo de acceso.

Harrison Steel Castings Company: uno de los primeros en adoptar

Al considerar dónde pueden agregar valor los pequeños clústeres de HCI, las aplicaciones perimetrales saltan inmediatamente a la cima. El mercado perimetral está de moda en este momento, con tantas oportunidades para una solución pequeña y sencilla de instalar y operar. El comercio minorista es lo más importante, con la seguridad probablemente en segundo lugar. Pero, ¿qué tan abajo en la lista caería una empresa de fundición de acero en nuestro escenario de borde?

Participar Compañía de fundición de acero Harrison. El cliente de Scale Computing, Harrison Steel Castings Company, acordó pasar unos minutos ofreciendo su opinión sobre su experiencia con la solución HyperCore de Scale Computing.

Como su nombre lo indica, la compañía de Indiana está en el negocio de producir soluciones de fundición de acero con ingeniería de precisión. Cada una de estas piezas fundidas puede tardar semanas en producirse, y las piezas fundidas inadecuadas deben desecharse en su totalidad si se consideran defectuosas.

Las fundiciones de acero no son tan simples como pueden parecer. Hay etapas dentro del proceso que requieren vibraciones específicas, agregando fundido medido y monitoreo de temperatura, por nombrar algunas. Harrison necesitaba una solución rentable, fácil de administrar y confiable para ayudarlos a recopilar los datos de este sensor.

Este problema de borde industrial es muy común. Las empresas están descubriendo que si pueden realizar un seguimiento eficaz de elementos como la humedad, la vibración, el PSI, los datos de telemetría de las máquinas y otros datos vitales, esos nuevos conocimientos prácticos tendrán un impacto en las operaciones comerciales y la rentabilidad.

Harrison está involucrado en este viaje analítico. Están tratando de descubrir cómo sus ingenieros pueden hacer un mejor uso de los datos para reducir el desperdicio y, en última instancia, aumentar la eficiencia y la rentabilidad. Su clúster HE150 HCI original maneja esta tarea con bastante eficacia, sentándose en el piso de producción como un agregador de todos estos datos de sensores. Todas las noches, Harrison procesa los datos por lotes y los lleva a su centro de datos central que contiene los sistemas HCI más grandes de Scale Computing para su posterior procesamiento y análisis.

Luego de una exitosa prueba de concepto de seis meses, compraron un clúster de producción. El clúster de producción H150 se puso en un entorno de prueba durante seis meses y, finalmente, pasó a producción. Ese grupo de producción ha estado funcionando durante seis meses sin quejas sobre ninguna unidad desde el primer día.

Shane Rogers, director de TI, Harrison Steel Castings, ha estado involucrado en la instalación de Scale Computing Platform desde el principio y fue el defensor de la recopilación de datos para el análisis. Cuando se le preguntó acerca de la confiabilidad y las fallas, Shane dijo:

“Mantuvimos el grupo de POC, y han estado funcionando durante casi dos años sin fallar. Un entorno de fundición no es bonito. El micropolvo es un gran problema que tratamos. Entonces, para estar al tanto del sistema, fallaré mis nodos de producción de vez en cuando solo para probar la conmutación por error. Y funcionan perfectamente. Moveré los nodos en el clúster solo para asegurarme de que cada nodo se use de manera efectiva”.

En última instancia, es esta facilidad de administración lo que proporciona enormes beneficios para Harrison. La simplicidad de instalar el sistema el día 0 es excelente, como vimos en nuestras pruebas de laboratorio. Aún así, los beneficios operativos continuos a partir de ese momento pueden ser difíciles de cuantificar, pero los clientes lo aprecian.

Consideraciones Finales:

Scale Computing HyperCore en NUC11 cumple lo prometido. La gente de Scale Computing nos dijo que es posible tener un clúster HyperCore en funcionamiento en 30 minutos, y dieron en el blanco. La instalación y configuración son intuitivas con un conjunto de herramientas fáciles de navegar. Por supuesto, Scale Computing brinda soporte a través de Zoom y puede guiar a cualquiera a través del proceso para asegurarse de que no haya inconvenientes en el camino.

Los pasos se detallaron con las hojas de datos proporcionadas antes de instalar los nodos, por lo que no hubo sorpresas durante el proceso.

Computación a escala

Transformación de Edge Computing, impulsada por Intel®

Scale Computing Platform es un Intel IoT RFP Ready Kit (Intel RRK). Los Intel RRK son ofertas tecnológicas enfocadas que resuelven una clase de problemas del mercado, se han implementado y probado en el campo y proporcionan hardware, software y soporte integrados. La tecnología es escalable y está diseñada para crecer con los requisitos del cliente, lo que permite acelerar el desarrollo y el tiempo de comercialización.

Intel ofrece inteligencia y rendimiento con uso eficiente de la energía optimizados para los negocios. Con tecnología de visión y capacidades de aprendizaje profundo en el perímetro, su empresa puede realizar nuevos casos de uso y tiempos de respuesta más rápidos. Nuestro conjunto básico integrado de capacidades de seguridad facilita la implementación de un modelo de seguridad consistente que ayuda a proteger contra una amplia gama de amenazas.1

Con un amplio soporte de conectividad, Intel agiliza el intercambio de datos entre dispositivos y la nube. Nuestras tecnologías especializadas para la virtualización lo ayudan a simplificar su entorno de TI, aumentando la eficiencia y el valor de sus inversiones en tecnología. Y debido a que los productos Intel están diseñados para una alta confiabilidad y una larga vida útil, puede contar con soporte durante años.

Las soluciones disponibles en la actualidad hacen que la implementación perimetral sea simple y sin inconvenientes. El resultado significa una capacidad total para desarrollar y distribuir rápidamente nueva tecnología sin complejidad arquitectónica ni limitaciones de personal de TI.

1Ningún sistema informático puede ser absolutamente seguro. Consulte con el fabricante o minorista de su sistema, u obtenga más información en intel.com.

Este informe está patrocinado por Scale Computing Todos los puntos de vista y opiniones expresados ​​en este informe se basan en nuestra visión imparcial de los productos bajo consideración.

Interactuar con StorageReview

BOLETÍN  | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | RSS Feed