Inicio Empresa Revisión de SSD ScaleFlux CSD 3000

Revisión de SSD ScaleFlux CSD 3000

by Charles P. Jefferies

ScaleFlux se enfoca exclusivamente en el almacenamiento computacional a escala. Su nuevo dispositivo de almacenamiento computacional (CSD) 3000 es un SSD Gen4 con motores integrados de compresión y descompresión de datos, que según la compañía puede cuadruplicar la capacidad y duplicar el rendimiento. Pondremos a prueba esas afirmaciones.

ScaleFlux se enfoca exclusivamente en el almacenamiento computacional a escala. Su nuevo dispositivo de almacenamiento computacional (CSD) 3000 es un SSD Gen4 con motores integrados de compresión y descompresión de datos, que según la compañía puede cuadruplicar la capacidad y duplicar el rendimiento. Pondremos a prueba esas afirmaciones.

ScaleFlux CSD 3000

ScaleFlux CSD 3000 Especificaciones

Para obtener información sobre el almacenamiento computacional, nuestro Revisión de ScaleFlux CSD 2000 (la versión anterior del CSD 3000 revisada aquí) es una lectura que vale la pena. En resumen, el almacenamiento computacional integra los recursos informáticos en el propio almacenamiento en lugar de depender de los recursos informáticos del sistema host.

La potencia computacional en el CSD 3000 proviene del procesador de almacenamiento SFX 3000, un chip SoC ARM personalizado con aceleración de hardware dedicada. Esta unidad está disponible en formato U.2.5 de 2 pulgadas con capacidades de 3.2 TB, 3.84 TB, 6.4 GB y 7.68 TB. Utiliza una interfaz PCIe Gen4 x4, una mejora con respecto a la interfaz Gen2000 de CSD 3.

Puerto ScaleFlux CSD 3000

ScaleFlux ofrece una unidad similar, la NSD 3000. Tiene compresión integrada pero no tiene el multiplicador de capacidad de la CSD 3000.

Las especificaciones clave del CSD 3000 se encuentran en la siguiente tabla.

Factor de forma 2.5″ U.2 (15 mm)
Capacidades predeterminadas 3.2 TB, 3.84 TB, 6.4 TB, 7.68 TB
Interfaz de host PCIe Gen4 x4
Virtualization SR-IOV con 15 funciones virtuales
Seguridad

 

TCG Opal 2.0 con aceleración de seguridad HW

 

Gestionamiento NVMe-MI 1.1 sobre SMBus

 

Potencia <20 W típico, <5 W inactivo

 

Fiabilidad Protección de ruta de datos de extremo a extremo, pérdida de energía

Protección, corrección de errores LDPC, NAND Die RAID

Lectura secuencial 7.2 GB / s
Escritura secuencial 4.8 GB/s*
Lectura aleatoria (4kB) 1450 kilos
Escritura aleatoria (4kB) 380 kIOPS*
Sostenido 70/30 Aleatorio 4kB Leer/Escribir con Compresible 2:1 Data 1020 kilos

ScaleFlux CSD 3000 Antecedentes de pruebas y comparables

StorageReview Enterprise Test Lab proporciona una arquitectura flexible para realizar pruebas comparativas de dispositivos de almacenamiento empresarial en un entorno comparable al que encuentran los administradores en implementaciones reales. El Enterprise Test Lab incorpora una variedad de servidores, redes, acondicionamiento de energía y otra infraestructura de red que permite a nuestro personal establecer condiciones del mundo real para medir con precisión el rendimiento durante nuestras revisiones.

Incorporamos estos detalles sobre el entorno de laboratorio y los protocolos en las revisiones para que los profesionales de TI y los responsables de la adquisición de almacenamiento puedan comprender las condiciones en las que hemos logrado los siguientes resultados.

Banco de pruebas ScaleFlux CSD 3000

Usamos un sistema diferente de nuestro banco de pruebas regular para revisar el CSD 3000. Con el disco tan único como este y la plataforma de prueba diferente aprovechada, no lo compararemos cabeza a cabeza con los SSD Gen4 NVMe tradicionales. Esta revisión aprovecha nuestro servidor Intel OEM Scalable Gen3, que está bien equipado con dos procesadores Intel 8380 y ofrece una potencia de CPU muy por encima de lo que se necesita para hacer hincapié en el almacenamiento local de alto rendimiento. Sus especificaciones de alto nivel incluyen lo siguiente:

  • 2 x Intel escalable Gen3 8380
  • 32 memorias DDR32 de 4 GB a 3200 MHz
  • Ubuntu 20.04.2 Live Server (cargas de trabajo sintéticas)
  • VMware ESXi 7.0u2 (cargas de trabajo de aplicaciones)
  • 8 bahías PCI Gen4 U.2 NVMe

Para medir el rendimiento de ScaleFlux CSD 3000, aprovechamos VDbench, que puede ajustar el nivel de compresión antes de cada carga de trabajo. Por lo general, esta configuración se mantiene en 0 % de forma predeterminada, pero la aumentamos al 50 % para un factor de compresión de 2:1 al probar este SSD. Estas dos carreras se reflejan en los gráficos a continuación.

Rendimiento de ScaleFlux CSD 3000

Nota: Después de revisar el ScaleFlux CSD 3000, nos dieron dos modelos más nuevos con firmware de producción. Hemos actualizado la revisión con los últimos resultados de estos dos puntos de capacidad.

Análisis de carga de trabajo de VDBench

Con respecto a la evaluación comparativa de los dispositivos de almacenamiento, la prueba de aplicaciones es la mejor y la prueba sintética ocupa el segundo lugar. Si bien no es una representación perfecta de las cargas de trabajo reales, las pruebas sintéticas ayudan a los dispositivos de almacenamiento de referencia con un factor de repetibilidad que facilita la comparación de las soluciones de la competencia.

Estas cargas de trabajo ofrecen una gama de diferentes perfiles de prueba que van desde pruebas de "cuatro esquinas" y pruebas de tamaño de transferencia de base de datos comunes para rastrear capturas de diferentes entornos VDI. Estas pruebas aprovechan el generador de cargas de trabajo vdBench común, con un motor de secuencias de comandos para automatizar y capturar resultados en un gran clúster de pruebas informáticas. Esto nos permite repetir las mismas cargas de trabajo en una amplia gama de dispositivos de almacenamiento, incluidos arreglos flash y dispositivos de almacenamiento individuales.

Nuestro proceso de prueba para estos puntos de referencia llena toda la superficie del disco con datos, luego divide una sección del disco equivalente al 25% de la capacidad del disco para simular cómo el disco podría responder a las cargas de trabajo de la aplicación. Esto difiere de las pruebas de entropía completas, que utilizan el 100 % del impulso y lo llevan a un estado estable. Como resultado, estas cifras reflejarán velocidades de escritura más altas.

perfiles:

  • Lectura aleatoria 4K: 100 % de lectura, 128 subprocesos, 0-120 % de iorate
  • Escritura aleatoria 4K: 100 % de escritura, 64 subprocesos, 0-120 % de iorate
  • Lectura secuencial de 64 K: 100 % de lectura, 16 subprocesos, 0-120 % de iorate
  • Escritura secuencial de 64 K: 100 % de escritura, 8 subprocesos, 0-120 % de iorate
  • Base de datos sintética: SQL y Oracle
  • Trazas de clones vinculados y clones completos de VDI

 

La singularidad de este disco significa que solo lo compararemos consigo mismo. A modo de comparación, veremos ScaleFlux CSD 3000 con VDBench enviando datos incompresibles y datos comprimibles 2:1.

En nuestro primer punto de referencia, lectura aleatoria 4K, el rendimiento comprimido del CSD 3000 subió constantemente a 909 139 IOPS con una latencia de 7.68 µs para el modelo de 3.85 TB (el modelo de 886 TB estaba un poco por detrás de los demás). La unidad era ligeramente más lenta sin compresión y con la misma capacidad, alcanzando un máximo de 142.4 XNUMX IOPS a XNUMX µs.

Rendimiento de lectura aleatoria de ScaleFlux C3000 El CSD 3000 sin comprimir mostró una curva similar a una montaña rusa en nuestra próxima prueba, escritura aleatoria de 4K, y el modelo de 7.68 TB mostró los mejores resultados de los dos: alcanzó un máximo de 454 275.7 IOPS con una latencia de 735 µs. La unidad comprimida mostró resultados mucho mejores, ambos terminando alrededor de 168.2 XNUMX IOPS y XNUMX µs.

Rendimiento de escritura aleatoria de ScaleFlux C3000

Pasando a las pruebas secuenciales de 64K, comenzamos con el rendimiento de lectura, que cuenta una historia similar (las unidades comprimidas nuevamente tienen números impresionantes). Ambas capacidades tenían un rendimiento prácticamente idéntico, con el modelo de 3.84 TB superando ligeramente a la mayor capacidad de 113 7.06 IOPS (o 282 GB/s) a 7.68 µs. La unidad superior sin comprimir (98 TB) alcanzó 326.8 XNUMX IOPS a XNUMX µs.

Rendimiento de lectura secuencial de ScaleFlux C3000

Los resultados de escritura secuencial de 64K fueron aún más favorables con las versiones comprimidas. Ambas capacidades volvieron a tener un rendimiento idéntico (aunque, como puede ver, la de 3.84 TB superó ligeramente a la capacidad más grande con 96 154 IOPS a 100 µs de latencia, manteniéndose muy por debajo de los 90 µs hasta que se acercó a las 29 534 IOPS. Por el contrario, la unidad sin comprimir experimentó picos severos, terminando en 7,68 25 IOPS a 616.6 µs para la capacidad de 3.85 TB y XNUMX XNUMX IOPS a XNUMX µs para la capacidad de XNUMX TB.

Rendimiento de escritura secuencial de ScaleFlux C3000

Nuestro próximo conjunto de pruebas son nuestras cargas de trabajo de SQL: SQL, SQL 90-10 y SQL 80-20. La prueba de carga de trabajo de SQL es la primera; el CSD 3000 muestra una curva similar cuando está comprimido y sin comprimir con los modelos de alta capacidad, aunque la versión comprimida fue ligeramente mejor con 310 101.9 IOPS con una latencia de XNUMX µs.

Rendimiento de la carga de trabajo SQL de ScaleFlux C3000 Con SQL 90-10, la CSD 7.68 comprimida de 3000 TB volvió a ser la unidad con mejor rendimiento, completando la prueba con 311 101.3 IOPS y una latencia de 7.68 µs. En comparación, la mejor unidad sin comprimir (también de 285 TB) terminó con 110.8 XNUMX IOPS y XNUMX µs de latencia.

En SQL 80-20, vemos que ambas capacidades del CSD 3000 comprimido ocupan los primeros lugares, con el modelo de 7.68 TB finalizando en 319 IOPS con una latencia de 98.3 µs. El modelo de 7.68 TB sin comprimir estaba notablemente por detrás (aunque muy cerca del modelo de pequeña capacidad) con 277 113.5 IOPS a XNUMX µs.

A continuación están nuestras cargas de trabajo de Oracle: Oracle, Oracle 90-10 y Oracle 80-20. Aquí, las unidades CSD 3000 comprimidas continuaron con su desempeño general superior. Comenzando con la prueba de carga de trabajo de Oracle, la mejor muestra fue una unidad de compresión de 7.68 TB con 336 103.9 IOPS con una latencia de 7.68 µs. La unidad comprimida de 279 TB estaba muy atrás, alcanzando un máximo de 126 XNUMX IOPS con una latencia de XNUMX µs.

Rendimiento de la carga de trabajo de Oracle ScaleFlux C3000 En Oráculo 90-10; la unidad comprimida de 7.86 TB finalizó con 229 94.7 IOPS con una latencia de 3.84 µs. Las unidades de 7.68 TB (comprimidas) y 214 TB (sin comprimir) mostraron un rendimiento idéntico, con 101.4 XNUMX IOPS a XNUMX µs de latencia.

Pasar a Oracle 80-20 contó una vez más una historia similar. La unidad de 7.68 TB sin comprimir terminó con 237 91 IOPS con una latencia de 7.68 µs, mientras que la unidad comprimida de 213 TB se quedó atrás con 101.9 IOPS con una latencia de solo XNUMX µs.

A continuación, cambiamos a nuestras pruebas de clones VDI, Full Clone (FC) y Linked Clone (LC). Todas las unidades mostraron una inestabilidad menor en el final de la cola en VDI FC Boot. Comprimido, el CSD 7.68 de 3000 TB terminó en la cima nuevamente con 270 126.9 IOPS con una latencia de 7.68 µs; comprimida, su capacidad de máximo rendimiento de la unidad de 3.84 TB nuevamente (que en realidad superó la unidad comprimida de 242 TB) con 141.9 XNUMX IOPS a una latencia de XNUMX µs.

Rendimiento de arranque ScaleFlux C3000 VDI El inicio de sesión inicial de VDI FC cuenta una historia diferente, ya que las unidades comprimidas eran mucho mejores, mientras que las unidades sin comprimir estaban por todas partes. La unidad comprimida de 7.68 TB alcanzó un máximo de 244 117.2 IOPS con una latencia de 3.84 µs, mientras que el modelo de 210 TB alcanzó un máximo de 137.2 127 IOPS con una latencia de 231.1 µs. Las unidades sin comprimir terminaron con 7.68 94 IOPS con una latencia de 312.4 μs (3.84 TB) y XNUMX XNUMX IOPS con una latencia de XNUMX μs (XNUMX TB).

El CSD 3000 comprimido continuó impresionando en nuestra última prueba FC, Monday Login, donde su mejor número fue 144K IOPS con una latencia de 106.9 µs (7.68 TB). La unidad de 7.68 TB sin comprimir mostró 100 154.6 IOPS con una latencia de XNUMX µs.

Ahora cambiaremos a las pruebas LC, donde todas las unidades mostraron líneas estables en la prueba de arranque. Las unidades comprimidas continuaron dominando (especialmente la de 7.68 TB, que registró 131 120.1 IOPS y una latencia de 7.68 µs). La unidad superior sin comprimir (110 TB) pudo alcanzar 144.4 IOPS a XNUMX µs.

Vemos un comportamiento inestable de las unidades sin comprimir en el inicio de sesión inicial de LC donde se acerca a 20,000 IOPS; su número final fue 49K IOPS/157.1µs (3.84TB) y 56K IOPS/138µs (7.68TB). Como siempre, las unidades comprimidas mostraron un mejor rendimiento y estabilidad, completando la prueba a 73 103.1 IOPS/3.84 µs (80 TB) y 94.4 7.68 IOPS/XNUMX µs (XNUMX TB).

En nuestra última prueba, las unidades sin comprimir todavía tienen un rendimiento inferior al de las versiones comprimidas. En LC Monday Login, que nuevamente mostró algunos picos de latencia extraños para las unidades comprimidas, 3.84TB y 7.68TB terminaron en 62K IOPS/250.1µs y 75K IOPS/207.5µs, respectivamente. El número final de la unidad comprimida fue mucho mejor a 109 140.9 IOPS/3.84 μs (124 TB) y 123.5 7.68 IOPS/XNUMX μs (XNUMX TB).

Conclusión

ScaleFlux continúa enfocándose en el almacenamiento computacional. La unidad CSD 3000 que analizamos en esta revisión mejora la CSD 2000 anterior principalmente al ofrecer una interfaz PCIe Gen4, lo que le brinda un potencial de rendimiento mucho mayor.

Probamos el CSD 3000 bajo Linux en nuestro servidor escalable Intel OEM Gen3 en un estado sin comprimir y nuevamente en un estado comprimido 2:1 para aprovechar los motores de compresión integrados en la unidad. La unidad mostró un rendimiento superior y una latencia más baja en todas las pruebas que utilizaron datos comprimibles, a menudo con deltas de rendimiento de dos dígitos.

Los aspectos destacados del rendimiento (resultados principales/capacidad) con datos comprimidos incluyen 909 4 IOPS en lectura aleatoria 7.68K para 886 TB (frente a 735 4 IOPS sin comprimir), 7.68 454 IOPS en escritura aleatoria 7.06K para 64 TB (3.85 6.12 IOPS sin comprimir), 6 GB/s en Lectura secuencial de 64 K para 1.82 TB (XNUMX GB/s sin comprimir) y XNUMX GB/s en escritura secuencial de XNUMX K (XNUMX GB/s sin comprimir).

El CSD 3000 mostró números comprimidos y sin comprimir similares en nuestras pruebas de SQL y Oracle, aunque la unidad comprimida fue más consistente. En un ejemplo, SQL 80-20, la unidad comprimida logró 319 IOPS a 98.3 µs de latencia (modelo de 7.68 TB), mientras que el modelo sin comprimir se quedó notablemente atrás con 277 113.5 IOPS a XNUMX µs.

Finalmente, nuestras pruebas de clones VDI completos y vinculados observaron las diferencias más notables entre el CSD 3000 que ejecuta datos comprimidos y sin comprimir, es decir, los datos comprimidos funcionaron mucho mejor y de manera más consistente. Para elegir un ejemplo, el inicio de sesión inicial de VDI LC mostró las unidades sin comprimir con un rendimiento máximo de 49 157.1 IOPS/3.84 μs (56 TB) y 138 7.68 IOPS/73 μs (103.1 TB), mientras que las unidades comprimidas mostraron que completaron la prueba a 3.84 80 IOPS/94.4 μs ( 7.68 TB) y XNUMX XNUMX IOPS/XNUMX µs (XNUMX TB).

Como nota de advertencia, vimos algunos picos de latencia inexplicables y un rendimiento reducido al ejecutar datos sin comprimir. Esto ocurrió en nuestras pruebas de 4K/64K, SQL/Oracle y VDI FC/LC, por lo que no se aisló a un solo escenario.

Las fortalezas del CSD3000 se mostrarán mejor cuando pueda funcionar con algunos datos comprimibles, ya que ahí es donde tendrá las ventajas más significativas en general sobre los SSD tradicionales. ScaleFlux también agregó compatibilidad con VMWare con esta versión, que no tenía cuando revisamos el CSD 2000 anterior. Eso es una gran ventaja, pero aún le falta compatibilidad con la virtualización de Windows. No obstante, vale la pena considerar el CSD 3000 de ScaleFlux si puede alinear sus cargas de trabajo con el soporte de la plataforma y las fuerzas de compresión sustanciales de la unidad.

Página del producto ScaleFlux

Interactuar con StorageReview

Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed