El controlador de almacenamiento VNX5200 de EMC es el punto de entrada para las ofertas de VNX2 de la empresa y cuenta con almacenamiento en bloque con funcionalidad opcional de archivo y almacenamiento unificado. El VNX5200 puede administrar hasta 125 unidades de disco duro y SSD SAS y NL-SAS de 2.5 o 3.5 pulgadas y está diseñado con la arquitectura multinúcleo MCx de EMC. Kevin O'Brien, director del laboratorio de pruebas de StorageReview Enterprise, viajó recientemente al centro de datos de EMC en Hopkinton, MA para participar en prácticas y pruebas comparativas del VNX5200.
El controlador de almacenamiento VNX5200 de EMC es el punto de entrada para las ofertas de VNX2 de la empresa y cuenta con almacenamiento en bloque con funcionalidad opcional de archivo y almacenamiento unificado. El VNX5200 puede administrar hasta 125 unidades de disco duro y SSD SAS y NL-SAS de 2.5 o 3.5 pulgadas y está diseñado con la arquitectura multinúcleo MCx de EMC. Kevin O'Brien, director del laboratorio de pruebas de StorageReview Enterprise, viajó recientemente al centro de datos de EMC en Hopkinton, MA para participar en prácticas y pruebas comparativas del VNX5200.
In septiembre del año pasado, EMC actualizó su popular línea VNX de arreglos de almacenamiento unificado con importantes mejoras de hardware. El resultado fue la línea VNX2, con mejoras como un cambio de PCIe 2.0 a PCIe 3.0 y la nueva arquitectura MCx (que abarca RAID multinúcleo, caché multinúcleo y FAST Cache multinúcleo) para aprovechar mejor los múltiples núcleos de CPU en los procesadores de almacenamiento.
Muchas de estas mejoras se enfocan en permitir que la plataforma VNX haga un mejor uso de flash en un momento en que los administradores de almacenamiento continúan avanzando hacia configuraciones de arreglos híbridos. Según EMC, casi el 70 % de los sistemas VNX2 ahora se envían en configuraciones flash híbridas, un cambio que también le ha dado más importancia al rol de la suite FAST de EMC para almacenamiento en caché y organización en niveles.
Mientras que el más pequeño VNXe3200 que revisamos anteriormente también se ha actualizado con tecnologías VNX2, el VNX5200 está diseñado para clientes del mercado medio que necesitan un sistema de almacenamiento principal en su oficina central y para las necesidades de sucursales/remotas que son más sólidas de lo que puede manejar el VNXe3200. El VNX5200 se puede configurar para almacenamiento de bloques, archivos o unificado y utiliza un chasis de gabinete de procesador de disco (DPE) EMC de 3U y 25 x 2.5 pulgadas. Las unidades de procesador de almacenamiento del VNX5200 incorporan un procesador Xeon E1.2 de cuatro núcleos y 5 GHz con 16 GB de RAM y pueden administrar un máximo de 125 unidades con conectividad FC, iSCSI, FCoE y NAS.
La familia VNX2 también incluye actualmente cinco sistemas de almacenamiento diseñados para escalas más grandes que VNXe3200 y VNX5200.
- VNX5400: Hasta 1 PB de capacidad bruta en 250 unidades, hasta 1 TB de SSD FAST Cache y hasta 8 módulos de E/S UltraFlex por arreglo
- VNX5600: Hasta 2 PB de capacidad bruta en 500 unidades, hasta 2 TB de SSD FAST Cache y hasta 10 módulos de E/S UltraFlex por arreglo
- VNX5800: Hasta 3 PB de capacidad bruta en 750 unidades, hasta 3 TB de SSD FAST Cache y hasta 10 módulos de E/S UltraFlex por arreglo
- VNX7600: Hasta 4 PB de capacidad bruta en 1,000 unidades, hasta 4.2 TB de SSD FAST Cache y hasta 10 módulos de E/S UltraFlex por arreglo
- VNX8000: Hasta 6 PB de capacidad bruta en 1,500 unidades, hasta 4.2 TB de SSD FAST Cache y hasta 22 módulos de E/S UltraFlex por arreglo
El almacenamiento en bloque VNX5200 funciona con dos procesadores de almacenamiento VNX con una topología de disco SAS de 6 Gb. Una implementación de VNX2 puede usar uno o más Data Movers y una unidad de controlador para ofrecer servicios NAS. Al igual que otros miembros de la serie VNX, el VNX5200 utiliza módulos de E/S UltraFlex para sus Data Movers y los procesadores de almacenamiento en bloque. El VNX5200 admite hasta tres Data Movers y un máximo de tres módulos UltraFlex por Data Mover.
Funcionalidad multinúcleo MCx
VNX es anterior a la tecnología de procesador multinúcleo generalizada y las generaciones anteriores de la plataforma no se crearon sobre una base que pudiera aprovechar el escalado dinámico de CPU. FLARE, el entorno operativo VNX1 y CLARiiON CX, permitía que los servicios, incluido RAID, se ejecutaran en un núcleo de CPU específico, pero el paradigma de subproceso único de FLARE significaba que muchas funciones principales estaban vinculadas al primer núcleo de CPU. Por ejemplo, todos los procesos de E/S entrantes fueron manejados por Core 0 antes de ser delegados a otros núcleos, lo que generó escenarios de cuello de botella.
MCx implementa lo que EMC caracteriza como escalamiento horizontal del sistema multinúcleo, que permite distribuir todos los servicios en todos los núcleos. Con esta nueva arquitectura disponible tanto en VNX2 como en VNXe3200, es menos probable que los procesos de I/O entrantes sufran cuellos de botella porque, por ejemplo, los puertos Fibre Channel de front-end se pueden distribuir uniformemente entre varios núcleos de procesador. MCx también implementa la afinidad de núcleos de E/S a través de su concepto de núcleos preferidos. Cada puerto, front-end y back-end, tiene un núcleo preferido y una asignación de núcleo alternativo. Los servicios del sistema alojan solicitudes con el mismo núcleo front-end donde se originaron las solicitudes para evitar el intercambio de caché y contexto entre núcleos.
Una gran ventaja de la nueva arquitectura MCx es la compatibilidad con LUN activos/activos simétricos, lo que permite que los hosts accedan a los LUN simultáneamente a través de ambos procesadores de almacenamiento en el arreglo. A diferencia de la implementación asimétrica de FLARE, el modo activo/activo simétrico permite que ambos SP escriban directamente en el LUN sin necesidad de enviar actualizaciones al procesador de almacenamiento principal.
En la actualidad, los sistemas VNX2 admiten el acceso activo/activo simétrico para LUN de grupo RAID clásico, pero no admiten activo/activo para LUN de pool privado que, en cambio, pueden utilizar el modo activo/activo asimétrico. Los LUN de pool privado o “LUN clásicos” actualmente no pueden usar el modo activo/activo simétrico si usan servicios de datos que no sean el divisor de VNX RecoverPoint.
Una de las sinergias convincentes de VNX5200 entre la arquitectura MCx y el almacenamiento de medios flash es la compatibilidad del sistema con EMC FAST Suite, que permite a los administradores aprovechar los medios de almacenamiento flash para aumentar el rendimiento del arreglo en unidades heterogéneas. FAST Suite combina dos enfoques para usar flash para acelerar el rendimiento del almacenamiento (caché y organización en niveles) en una solución integrada. Las actualizaciones de VNX2 para FAST Suite incluyen una granularidad de organización en niveles cuatro veces mejor y soporte para nuevas unidades flash eMLC.
VNX FAST Cache permite utilizar hasta 4.2 TB de almacenamiento SSD para servir datos altamente activos y ajustarse dinámicamente a los picos de carga de trabajo, aunque el límite de tamaño de caché superior del VNX5200 es de 600 GB. A medida que los datos envejecen y se vuelven menos activos con el tiempo, FAST VP clasifica los datos de unidades de alto rendimiento a unidades de alta capacidad en incrementos de 256 MB según las políticas definidas por el administrador.
Especificaciones de EMC VNX5200
- Gabinete de matriz: Gabinete de procesador de disco 3U
- Cajas de unidades:
- SAS/Flash de 2.5 pulgadas (2U), 25 unidades
- SAS/Flash de 3.5 pulgadas (3U), 15 unidades
- Número máximo de hosts SAN: 1,024
- Unidades mín./máx.: 4/125
- Caché máxima RÁPIDA: 600 GB
- CPU/Memoria por arreglo: 2x Intel Xeon E5-2600 4-Core 1.2GHz/32GB
- RAID: 0/1/10/3/5/6
- Capacidad bruta máxima: 500 TB
- Protocolos: FC, FCoE, NFS, CIFS, iSCSI,
- Tipos de almacenamiento: Unificado, SAN, NAS, Objeto
- Tipos de unidades: Flash SSD, SAS, NL-SAS
- Optimización de la capacidad: aprovisionamiento ligero, deduplicación de bloques, compresión de bloques, deduplicación y compresión a nivel de archivos
- Rendimiento: MCx, FAST VP, FAST Cache
- Administración: EMC Unisphere
- Soporte de virtualización: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
- Bloque máximo de módulos de E/S UltraFlex por arreglo: 6
- Puertos totales máximos por arreglo: 28
- Máximo de puertos FC de 2/4/8 Gb/s por arreglo: 24
- 1GBASE-T iSCSI Número máximo de puertos por arreglo: 16
- Máximo de puertos FCoE por matriz: 12
- Máx. de puertos iSCSI de 10 GbE por arreglo: 12
- Estaciones de control: 1 o 2
- Máximo de LUN admitidos: 1,000 (agrupados)
- Tamaño máximo de LUN: 256 TB (LUN de grupo virtual)
- Tamaño máximo del sistema de archivos: 16 TB
- Número de transportadores de datos de archivos: 1, 2 o 3
- CPU/Memoria por Data Mover: Intel Xeon 5600/6GB
- Módulos de expansión de E/S UltraFlex para bloque:
- Canal de fibra de 4 puertos 2/4/8 Gb/s
- 4 puertos 1 Gb/s (cobre) iSCSI
- 2 puertos 10 Gb/s (óptico) iSCSI
- 2 puertos 10GBASE-T (cobre) iSCSI
- 2 puertos 10 GbE (óptico o twinax) FCoE
- Módulos de expansión de E/S UltraFlex para archivo:
- 4 puertos 1GBASE-T
- 4 puertos 1GBASE-T y 1GbE (óptico)
- 2 puertos 10 GbE (óptico)
- 2GBASE-T de 10 puertos (cobre)
Diseño y construcción
En la terminología de VNX, una implementación de almacenamiento consta de varios componentes de rack integrados. El componente del controlador es un gabinete de procesador de almacenamiento (SPE) que no incorpora bahías para unidades o, como en este VNX5200, un gabinete de procesador de disco (DPE) que proporciona almacenamiento interno. Los gabinetes de arreglos de discos (DAE) de VNX se pueden usar para incorporar capacidad de almacenamiento adicional.
Un SPE incorpora los procesadores de almacenamiento VNX además de módulos SAS dobles, fuentes de alimentación dobles y paquetes de ventiladores. Los gabinetes de procesadores de disco (DPE) incluyen un gabinete, módulos de disco, procesadores de almacenamiento, fuentes de alimentación dobles y cuatro paquetes de ventiladores. Se puede agregar almacenamiento adicional mediante el uso de DAE mediante el uso de bahías para unidades de 15x 3.5 pulgadas, 25x 2.5 pulgadas o 60x 3.5 pulgadas con tarjetas de control de enlace SAS duales y fuentes de alimentación duales.
Ya sea que formen parte de un gabinete de procesador de almacenamiento o un gabinete de procesador de disco, los procesadores de almacenamiento VNX brindan acceso a datos a hosts externos y unen el almacenamiento en bloque del arreglo con la funcionalidad de almacenamiento de archivos VNX2 opcional. El VNX5200 puede aprovechar una variedad de módulos de E/S UltraFlex de EMC para personalizar su conectividad.
Opciones del módulo de E/S de bloque UltraFlex:
- Módulo de canal de fibra de 8 Gb/s de cuatro puertos con SFP óptico y cableado OM2/OM3 para conectar a un conmutador HBA o FC.
- Módulo iSCSI de 1 Gb/s de cuatro puertos con un motor de descarga TCP y cuatro puertos 1GBaseT Cat6.
- Módulo iSCSI opcional de 10 Gb/s de dos puertos con un motor de descarga TCP, dos puertos Ethernet de 10 Gb/s y una conexión óptica SFP+ o una conexión de cobre twinax a un conmutador Ethernet.
- Módulo iSCSI 10GBaseT de dos puertos con un motor de descarga TCP y dos puertos Ethernet 10GBaseT
- Módulo FCoE de 10 GbE de dos puertos con dos puertos Ethernet de 10 Gb/s y una conexión óptica SFP+ o una conexión de cobre twinax
- Módulo SAS V6 de 2.0 Gb/s de cuatro puertos para conectividad de back-end a procesadores de almacenamiento en bloque VNX. Cada puerto SAS tiene cuatro carriles por puerto a 6 Gb/s para un rendimiento nominal de 24 Gb/s. Este módulo está diseñado para conectividad PCIe 3 y se puede configurar como 4x4x6 o 2x8x6.
Para configurar el VNX5200 para almacenamiento de archivos o almacenamiento unificado, debe usarse en conjunto con una o más unidades de transferencia de datos. El gabinete del organizador de datos (DME) de VNX tiene un tamaño de 2U y alberga los organizadores de transferencia de datos. Los Data Mover utilizan procesadores Xeon 2.13 de cuatro núcleos a 5600 GHz con 6 GB de RAM por Data Mover y pueden administrar una capacidad de almacenamiento máxima de 256 TB por Data Mover. El gabinete del transportador de datos puede funcionar con uno, dos o tres transportadores de datos.
Las estaciones de control tienen un tamaño de 1U y brindan funciones de administración a los transportadores de datos, incluidos los controles para la conmutación por error. Una estación de control se puede implementar con una estación de control secundaria para redundancia. Las opciones del módulo UltraFlex File IO incluyen:
- Módulo IP 1GBase-T de cuatro puertos con cuatro puertos RJ-45 para cables Cat6
- Módulo IP opcional de 10 GbE de dos puertos con dos puertos Ethernet de 10 Gb/s y una opción de conexión óptica SFP+ o una conexión de cobre twinax a un conmutador Ethernet
- Módulo IP 10 GBase-T de dos puertos con conexiones de cobre a un conmutador Ethernet
- Módulo de canal de fibra de 8 Gb/s de cuatro puertos con SFP óptico y cableado OM2/OM3 para conectarse directamente a un arreglo cautivo y proporcionar una conexión de cinta NDMP
Servicios de Gestión y Datos
La familia VNX utiliza el software de administración Unisphere de EMC. Nuestra impresión general de Unisphere es que ofrece una interfaz limpia y bien organizada a la que podrán acceder los generalistas de TI y, al mismo tiempo, permite que los administradores de almacenamiento experimentados accedan a la funcionalidad completa del sistema.
Unisphere incorpora la funcionalidad de instantáneas que incluye opciones de configuración para una política de eliminación automática que elimina instantáneas (1) después de un período de tiempo específico o (2) una vez que el espacio de almacenamiento de instantáneas supera un porcentaje específico de capacidad de almacenamiento. Los snapshots de VNX pueden hacer uso de las tecnologías thin provisioning y redirect on write de EMC para mejorar la velocidad y reducir los requisitos de almacenamiento para los snapshots almacenados.
VNX utiliza algoritmos de compresión de archivos y bloques diseñados para LUN y archivos relativamente inactivos, lo que permite que las operaciones de compresión y deduplicación se realicen en segundo plano con una sobrecarga de rendimiento reducida. La deduplicación de bloques fijos de VNX está construida con granularidad de 8 KB para escenarios como máquinas virtuales, escritorios virtuales y entornos de prueba/desarrollo con mucho que ganar con la deduplicación. La deduplicación se puede configurar en el nivel de LUN del grupo, y los LUN delgados, gruesos y deduplicados se pueden almacenar en un solo grupo.
Unisphere Central proporciona monitoreo centralizado de cajas múltiples para hasta miles de sistemas VNX y VNXe, por ejemplo, sistemas implementados en sucursales y oficinas remotas. El paquete Unisphere también incluye el software VNX Monitoring and Reporting para la utilización del almacenamiento y los patrones de carga de trabajo a fin de facilitar el diagnóstico de problemas, el análisis de tendencias y la planificación de la capacidad.
En entornos virtualizados, el VNX5200 puede implementar Virtual Storage Integrator de EMC para VMware vSphere 5 para aprovisionamiento, administración, clonación y deduplicación. Para VMware, el VNX5200 ofrece integraciones de API para VAAI y VASA, y en entornos Hyper-V se puede configurar para Transferencia de datos descargados y Copia descargada para archivo. EMC Storage Integrator ofrece funcionalidad de aprovisionamiento para Hyper-V y SharePoint. El software EMC Site Recovery Manager también puede administrar failover y failback en situaciones de recuperación ante desastres.
Los arreglos VNX2 desde el VNX5200 hasta el VNX8000 ofrecen el nuevo cifrado de datos en reposo basado en controlador de EMC, denominado D@RE, que cifra todos los datos de usuario a nivel de disco. D@RE usa cifrado AES 256 y está pendiente de validación para el cumplimiento de FIPS-140-2 Nivel 1. Los nuevos arreglos VNX compatibles con D@RE se envían con el hardware de cifrado incluido, y los sistemas VNX2 existentes se pueden actualizar en campo para admitir D@RE y cifrar el almacenamiento existente sin interrupciones como una tarea en segundo plano.
D@RE cifra todos los datos escritos en el arreglo mediante un protocolo de ruta de datos regular con una clave única por disco. Si se extraen unidades de la matriz por cualquier motivo, la información de la unidad será ininteligible. D@RE también incorpora la función de borrado criptográfico porque sus claves de cifrado se eliminan cuando se elimina un grupo RAID o un conjunto de almacenamiento.
VNX2 ofrece una funcionalidad de caché de escritura duplicada, en la que cada procesador de almacenamiento contiene datos primarios en caché para sus LUN y una copia secundaria de la caché para el procesador de almacenamiento del mismo nivel. Los niveles de RAID 0, 1, 1/0, 5 y 6 pueden coexistir en el mismo arreglo y la función proactiva de repuesto en caliente del sistema aumenta aún más la protección de datos. El sistema utiliza unidades de respaldo de batería integradas para proporcionar la eliminación de caché y otras consideraciones para un apagado ordenado durante fallas de energía.
La protección local está disponible a través de la función de instantáneas puntuales de Unisphere y la protección continua de datos está disponible a través de la replicación local de RecoverPoint. VPLEX de EMC se puede utilizar para ampliar la disponibilidad continua dentro y entre centros de datos. Según EMC, utilizó DVR de televisión como inspiración para su software RecoverPoint Continuous Remote Replication.
Replication Manager y AppSync brindan protección consistente con las aplicaciones con las soluciones de respaldo y recuperación de EMC que incluyen Data Domain, Avamar y Networker para acortar las ventanas de respaldo y los tiempos de recuperación.
Prueba de fondo y medios de almacenamiento
Publicamos un inventario de nuestro entorno de laboratorio, un descripción general de las capacidades de red del laboratorio, y otros detalles sobre nuestros protocolos de prueba para que los administradores y los responsables de la adquisición de equipos puedan evaluar de manera justa las condiciones en las que hemos logrado los resultados publicados. Para mantener nuestra independencia, el fabricante del equipo que estamos probando no paga ni administra ninguna de nuestras revisiones.
La revisión de EMC VNX5200 se destaca como un enfoque de prueba único en comparación con la forma en que normalmente evaluamos los equipos. En nuestro proceso de revisión estándar, el proveedor nos envía la plataforma, que luego conectamos a nuestras plataformas de prueba fijas para obtener puntos de referencia de rendimiento. Con el VNX5200, el tamaño y la complejidad, así como la configuración inicial, nos obligaron a cambiar este enfoque y llevar a nuestro revisor y equipo al laboratorio de EMC. EMC preparó un VNX5200 con el equipo y las opciones necesarias para las pruebas de iSCSI y FC. EMC suministró su propio conmutador FC de 8 Gb dedicado, mientras que trajimos uno de nuestros conmutadores Mellanox SX10 de 40/1024 Gb para conectividad Ethernet. Para enfatizar el sistema, aprovechamos un servidor EchoStreams OSS1A-1U, superando las especificaciones de hardware de lo que usamos en nuestro entorno de laboratorio tradicional.
EchoStreams OSS1A-1U Caracteristicas:
- 2x Intel Xeon E5-2697 v2 (2.7 GHz, caché de 30 MB, 12 núcleos)
- Conjunto de chips Intel C602A
- Memoria: 16 GB (2x 8 GB) 1333 MHz DDR3 RDIMM registrados
- Windows Server Standard 2012 R2
- SSD de arranque: 100 GB Micron RealSSD P400e
- 2 NIC de 3 GbE de dos puertos Mellanox ConnectX-10
- 2x Emulex LightPulse LPe16002 Gen 5 Fibre Channel (8GFC, 16GFC) PCIe 3.0 HBA de doble puerto
Nuestra evaluación del VNX5200 comparará su rendimiento en puntos de referencia sintéticos en cinco configuraciones que reflejan cómo los clientes de EMC implementan sistemas VNX2 en un entorno de producción. Cada configuración aprovechó 8 LUN con un tamaño de 25 GB.
- Una matriz RAID10 compuesta por medios SSD con conectividad Fibre Channel
- Una matriz RAID10 compuesta por medios SSD con conectividad iSCSI
- Una matriz RAID6 compuesta por medios HDD de 7k con conectividad Fibre Channel
- Una matriz RAID5 compuesta por medios HDD de 10k con conectividad Fibre Channel
- Una matriz RAID5 compuesta por medios HDD de 15k con conectividad Fibre Channel.
Cada configuración incorporó 24 unidades y utilizó las configuraciones RAID más comunes con su implementación en un entorno de producción.
Análisis de carga de trabajo sintética empresarial
Antes de iniciar cada uno de los puntos de referencia sintéticos fio, nuestro laboratorio preacondiciona el dispositivo en estado estable bajo una carga pesada de 16 subprocesos con una cola pendiente de 16 por subproceso. Luego, el almacenamiento se prueba en intervalos establecidos con múltiples perfiles de profundidad de subprocesos/colas para mostrar el rendimiento con un uso ligero y pesado.
Pruebas de preacondicionamiento y de estado estacionario primario:
- Rendimiento (lectura+escritura IOPS agregado)
- Latencia promedio (latencia de lectura y escritura promediadas juntas)
- Latencia máxima (máxima latencia de lectura o escritura)
- Desviación estándar de latencia (desviación estándar de lectura+escritura promediada)
Este análisis sintético incorpora cuatro perfiles que se utilizan ampliamente en las especificaciones y puntos de referencia de los fabricantes:
- 4k aleatorio: 100 % de lectura y 100 % de escritura
- 8k secuencial: 100 % de lectura y 100 % de escritura
- 8k aleatorio: 70 % de lectura/30 % de escritura
- 128k secuencial: 100 % de lectura y 100 % de escritura
Después de ser preacondicionado para cargas de trabajo de 4k, sometimos el VNX5200 a nuestras pruebas principales. Como tal, cuando se configuró con SSD y se accedió a través de Fibre Channel, registró 80,472 33,527 IOPS de lectura y 10 5200 IOPS de escritura. Con los mismos SSD en RAID37,421 (aunque esta vez con nuestra prueba de nivel de bloque iSCSI), el VNX22,309 logró 15 5 IOPS de lectura y 12,054 3,148 IOPS de escritura. El cambio a HDD de 10 7,688 en RAID2,835 con conectividad Fibre Channel mostró 7 6 IOPS de lectura y 5200 IOPS de escritura, mientras que la configuración de HDD de 4,390 1,068 alcanzó XNUMX IOPS de lectura y XNUMX IOPS de escritura. Cuando se utilizan discos duros de XNUMXK en una configuración RAIDXNUMX del mismo tipo de conectividad, el VNXXNUMX registró XNUMX IOPS de lectura y XNUMX IOPS de escritura.
Los resultados fueron muy similares en latencia promedio. Cuando se configuró con SSD en RAID10 y con conectividad Fibre Channel, mostró 3.18 ms de lectura y 7.63 ms de escritura. Usando los mismos SSD con nuestra prueba de nivel de bloque iSCSI, el VNX5200 presumió 6.84 ms de lectura y 11.47 de escritura. El cambio a HDD de 15 5 en RAID21.23 con conectividad Fibre Channel mostró una latencia promedio de 81.31 ms de lectura y 10 ms de escritura, mientras que la configuración de HDD de 33.29 90.31 registró 7 ms de lectura y 6 ms de escritura. Al cambiar a discos duros de 5200K en una configuración RAID58.29 del mismo tipo de conectividad, el VNX239.64 registró XNUMX ms de lectura y XNUMX ms de escritura.
A continuación, pasamos a nuestro punto de referencia de latencia máxima. Cuando se configuró con SSD en RAID10 y con nuestra prueba de nivel de bloque iSCSI, mostró 197 ms de lectura y 421.8 ms de escritura. Con los mismos SSD, aunque esta vez con conectividad Fibre Channel, el VNX5200 alcanzó 202.1 ms de lectura y 429.2 ms de escritura. El cambio a HDD de 15 5 en RAID1,311.3 con conectividad Fibre Channel registró 1,199.2 ms de lectura y 10 2,687.8 ms de escritura para una latencia máxima, mientras que la configuración de HDD de 2,228.1 7 registró 6 5200 ms de lectura y 3,444.8 2,588.4 ms de escritura. Al cambiar a discos duros de XNUMXK en una configuración RAIDXNUMX del mismo tipo de conectividad, el VNXXNUMX registró XNUMX ms de lectura y XNUMX ms de escritura.
Nuestro último punto de referencia 4K es la desviación estándar, que mide la consistencia de la Rendimiento de VNX5200. Cuando se configura con SSD en RAID10 usando nuestra prueba de nivel de bloque iSCSI, el VNX5200 publicó 3.30 ms de lectura y 12.06 ms de escritura. El uso de los mismos SSD con conectividad Fibre Channel muestra 9.20 ms de lectura y 14.32 ms de escritura. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró 25.93 ms de lectura y 120.53 ms de escritura, mientras que la configuración de HDD de 10K registró 35.37 ms de lectura y 175.66 ms de escritura. Al usar la configuración RAID7 de HDD de 6K del mismo tipo de conectividad, el VNX5200 registró 52.75 ms de lectura y 254.55 ms de escritura.
Nuestro próximo punto de referencia utiliza una carga de trabajo secuencial compuesta al 100 % por operaciones de lectura y luego al 100 % por operaciones de escritura con un tamaño de transferencia de 8k. Aquí, el VNX5200 registró 178,959 76,022 IOPS de lectura y 10 5 IOPS de escritura cuando se configuró con HDD de 15 5 en conectividad de canal de fibra RAID176,895. El uso de HDD de 77,505K en RAID10 con conectividad Fibre Channel muestra 169,833 74,470 IOPS de lectura y 69,303 40,379 IOPS de escritura. El cambio a SSD en RAID7 con conectividad Fibre Channel registró 6 5200 IOPS de lectura y 75,982 76,122 IOPS de escritura, mientras que la prueba de nivel de bloque SSD iSCSI mostró XNUMX XNUMX IOPS de lectura y XNUMX XNUMX IOPS de escritura. Al usar HDD de XNUMXK en una configuración RAIDXNUMX con conectividad Fibre Channel, el VNXXNUMX registró XNUMX XNUMX IOPS de lectura y XNUMX XNUMX IOPS de escritura.
Nuestra próxima serie de cargas de trabajo se compone de una combinación de operaciones de lectura (8%) y escritura (70%) de 30k hasta una cola de 16 subprocesos 16, siendo la primera el rendimiento. Cuando se configuró con SSD en RAID10 mediante conectividad Fibre Channel, el VNX5200 publicó un rango de 8,673 IOPS a 41,866 16 IOPS por 16T/XNUMXQ. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra una variedad de 6,631 IOPS a 28,193 IOPS. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró una variedad de 1,204 IOPS y 6,411 IOPS, mientras que la configuración de 10K HDD registró 826 IOPS y 5,113 IOPS en 16T/16Q. Cuando se usa la configuración RAID7 de HDD de 6K del mismo tipo de conectividad, el VNX5200 registró un rango de 267 IOPS a 2,467 IOPS.
A continuación, analizamos la latencia promedio. Cuando se configuró con SSD en RAID10 mediante conectividad Fibre Channel, el VNX5200 registró un rango de 0.45 ms a 6.11 ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango de 0.59 ms a 9.07 ms. El cambio a HDD de 15 5 en RAID3.31 con conectividad Fibre Channel registró un rango de 39.89 ms y 10 ms, mientras que la configuración de HDD de 4.83 49.97 registró 16 ms inicialmente y 16 ms en 7T/6Q. Cuando se usa la configuración RAID5200 de HDD de 14.93K del mismo tipo de conectividad, el VNX103.52 registró un rango de XNUMX ms a XNUMX ms.
Echando un vistazo a sus resultados de latencia máxima, cuando se configuró con SSD en RAID10 usando conectividad Fibre Channel, el VNX5200 tuvo un rango de 27.85ms a 174.43ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango de 31.78 ms a 134.48 ms en latencia máxima. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró un rango de 108.48 ms y 2,303.72 ms, mientras que la configuración de HDD de 10K mostró 58.83 ms y 2,355.53 ms por 16T/16Q. Cuando se usa la configuración RAID7 de HDD de 6K del mismo tipo de conectividad, el VNX5200 registró un rango de latencia máxima de 82.74 ms a 1,338.61 ms.
Nuestra próxima carga de trabajo analiza la desviación estándar para nuestras operaciones de lectura de 8k 70 % y escritura de 30 %. Al usar SSD en RAID10 con conectividad Fibre Channel, el VNX5200 registró un rango de solo 0.18 ms a 10.83 ms por 16T/16Q. El uso de los mismos SSD durante nuestra prueba de nivel de bloque iSCSI muestra un rango similar de 0.21 ms a 11.54 ms en la consistencia de la latencia. El cambio a HDD de 15K en RAID5 con conectividad Fibre Channel registró un rango de 3.48ms a 56.58ms, mientras que la configuración de HDD de 10K mostró 2.5ms inicialmente y 66.44ms con 16T/16Q. Al usar la configuración RAID7 de HDD de 6K del mismo tipo de conectividad, el VNX5200 registró un rango de desviación estándar de 7.98 ms a 110.68 ms.
Nuestro punto de referencia sintético final hizo uso de transferencias secuenciales de 128k y una carga de trabajo de 100 % de operaciones de lectura y 100 % de escritura. En este escenario, el VNX5200 registró 2.84 GB/s de lectura y 1.26 GB/s de escritura cuando se configuró con SSD mediante nuestra prueba de nivel de bloque iSCSI. El uso de HDD de 15K en RAID5 con conectividad Fibre Channel muestra 2.48 GB/s de lectura y 2.33 GB/s de escritura. Al volver a SSD en RAID10 (esta vez usando una conectividad Fibre Channel), registró 2.48 GB/s de lectura y 3.06 GB/s de escritura. Al usar HDD de 7K en una configuración RAID6 con conectividad Fibre Channel, el VNX5200 registró 2.47 GB/s de lectura y 2.68 GB/s de escritura, mientras que la configuración de HDD de 10K registró 2.47 GB/s de lectura y 3.22 GB/s de escritura.
Conclusión
El ecosistema VNX de EMC está bien establecido en el mercado de almacenamiento empresarial, pero VNX2 refleja la voluntad de la empresa de revisar completamente la arquitectura VNX para aprovechar al máximo los avances en las tecnologías de redes, flash y procesadores. Al igual que el VNXe3200, que está orientado hacia implementaciones más pequeñas, el VNX5200 también demuestra que EMC está prestando atención a las empresas medianas y las oficinas remotas/sucursales que tal vez no puedan justificar el gasto de los sistemas más grandes de la familia VNX, pero que aún desean todos los beneficios empresariales. .
Usado junto con FAST Suite, el VNX5200 puede ofrecer almacenamiento en caché flash y almacenamiento en niveles en tándem, una combinación contra la cual los pares de EMC tienen problemas para competir. En nuestras pruebas, desglosamos los niveles y configuraciones comunes de almacenamiento para ilustrar con un conjunto de pruebas limitado lo que los usuarios pueden esperar del 5200. Las pruebas cubrieron 7K HDD hasta SSD, ilustrando la flexibilidad que tiene el sistema, brindando capacidad, rendimiento, o ambos a través de una variedad de opciones de interfaz.
En última instancia, la plataforma VNX2 puede manejar casi cualquier cosa que se le presente; y es esa flexibilidad la que gana tratos con EMC todos los días. Dada la combinación de opciones de almacenamiento, los módulos IO y la compatibilidad con NAS, los sistemas pueden administrar casi todo lo que una organización podría necesitar. Por supuesto, hay casos de uso que van más allá del 5200 que probamos aquí. La familia VNX se amplía bastante (y también se reduce un poco con el VNXe3200) para abordar estas necesidades, ya sea con más potencia de cómputo, asignación flash o estantes de discos.
Ventajas
- Una variedad de opciones de conectividad a través de módulos de E/S UltraFlex
- Configuraciones que admiten escenarios de almacenamiento unificado, de archivos y de bloques
- Acceso al sólido ecosistema VNX de herramientas administrativas e integraciones de terceros
Contras
- Máximo de 600 GB de FAST Cache
Resumen Final
El EMC VNX5200 es una entrada clave en su nueva ola de arreglos de almacenamiento unificado que están diseñados para aprovechar el almacenamiento flash, las CPU multinúcleo y los entornos de red de centros de datos modernos. Su asequibilidad, flexibilidad en la configuración y acceso al software de administración VNX2 y las integraciones de terceros lo convierten en un paquete general formidable para el mercado medio.
Página del producto EMC VNX5200