Inicio Hitachi Data Systems ofrece una plataforma de escalamiento horizontal hiperconvergente de próxima generación

Hitachi Data Systems ofrece una plataforma de escalamiento horizontal hiperconvergente de próxima generación

by Adam Armstrong

Hitachi Data Systems (HDS) anunció hoy su Hyper Scale-Out Platform (HSP) de próxima generación, la serie HSP 400. La nueva serie HSP 400 viene con integración nativa con Pentaho Enterprise Platform. Esta integración nativa ayudará al HSP a ofrecer una plataforma hiperconvergente, definida por software y sofisticada para implementaciones de big data. El HSP 400, que admite la combinación de big data, el análisis empresarial integrado y la gestión de datos simplificada, combina computación, almacenamiento y virtualización para ofrecer una infraestructura perfecta.


Hitachi Data Systems (HDS) anunció hoy su Hyper Scale-Out Platform (HSP) de próxima generación, la serie HSP 400. La nueva serie HSP 400 viene con integración nativa con Pentaho Enterprise Platform. Esta integración nativa ayudará al HSP a ofrecer una plataforma hiperconvergente, definida por software y sofisticada para implementaciones de big data. El HSP 400, que admite la combinación de big data, el análisis empresarial integrado y la gestión de datos simplificada, combina computación, almacenamiento y virtualización para ofrecer una infraestructura perfecta.

Ahora se genera una gran cantidad de datos de forma casi constante. Los grandes culpables de esta generación son la tecnología de la información (TI), la tecnología operativa (OT), el Internet de las cosas (IoT). Cada vez más empresas se dan cuenta de que se puede derivar valor de estos datos, pero necesitan la tecnología en la que pueden obtener este valor. Aquí es donde entra HPS con su arquitectura definida por software que centraliza y admite el fácil almacenamiento y procesamiento de grandes conjuntos de datos con alta disponibilidad, administración simplificada y un modelo de pago a medida que crece. El HPS se ofrece como un dispositivo llave en mano que se puede instalar en cuestión de horas en lugar de meses. Una vez instalado, HPS admite cargas de trabajo de producción y simplifica la creación de un lago de datos elástico que ayuda a los clientes a integrar fácilmente conjuntos de datos dispares y ejecutar cargas de trabajo analíticas avanzadas.

La arquitectura de escalabilidad horizontal de HPS brinda a los clientes una infraestructura simplificada, escalable y lista para la empresa para big data. HDS también diseñó el HPS con una interfaz de usuario centralizada y fácil de usar para automatizar la implementación y la gestión de entornos virtualizados para los principales marcos de trabajo de big data de código abierto, incluidos Apache Hadoop, Apache Spark y pilas comerciales de código abierto como Hortonworks Data Platform. . El HPS está diseñado inicialmente para centrarse en el análisis de datos de excavación, pero el objetivo a largo plazo de HDS es hacer que la plataforma ofrezca el mejor costo total de propiedad (TCO) de su clase para una variedad de cargas de trabajo de TI.

Como se mencionó anteriormente, la serie HPS 400 está integrada de forma nativa con Pentaho Enterprise Platform. Esta integración brindará a los clientes funciones de nivel empresarial, como linaje de big data, administración del ciclo de vida y seguridad de la información mejorada, al tiempo que les brinda un mejor control de su flujo de datos analíticos. HDS también afirma que esto acelerará el tiempo de conocimiento del negocio y brindará un rápido retorno de la inversión (ROI), al tiempo que simplificará la integración de TI y OT.

Disponibilidad

Hitachi Data Systems Hyper Scale-Out Platform ya está disponible con unidades de disco SAS y se espera que todo flash esté disponible a finales de este año. 

Grandes datos de HDS

Discutir esta historia

Suscríbase al boletín de StorageReview