首页 企业版 X-IO Technologies ISE 860 G3 评测:第 1 部分

X-IO Technologies ISE 860 G3 评测:第 1 部分

by StorageReview 企业实验室

X-IO 在企业 SAN 存储中名声大噪,因为它找到了一种方法来确保硬盘驱动器,在混合配置的情况下,SSD 在保修五年窗口内无需维修。 为帮助实现这一目标,X-IO 使用插入并锁定在完全冗余机箱中的双 DataPac,提供“设置好后不用管”的存储方式。 今年 3 月,X-IO 加入了硬盘驱动器和混合阵列系列,具有全新系列的全闪存配置和更新的第三代架构 (GXNUMX)。 这 ISE 800 G3 系列 所有闪存阵列包括三种型号,原始容量从 6.4TB 到 51.2TB 不等。 每个都带来了显着降低服务调用频率的承诺,以及高达 400,000 IOPS 的性能、5GB/s 的带宽和更强大的 QoS 引擎之一。 


X-IO 在企业 SAN 存储中名声大噪,因为它找到了一种方法来确保硬盘驱动器,在混合配置的情况下,SSD 在保修五年窗口内无需维修。 为帮助实现这一目标,X-IO 使用插入并锁定在完全冗余机箱中的双 DataPac,提供“设置好后不用管”的存储方式。 今年 3 月,X-IO 加入了硬盘驱动器和混合阵列系列,具有全新系列的全闪存配置和更新的第三代架构 (GXNUMX)。 这 ISE 800 G3 系列 所有闪存阵列包括三种型号,原始容量从 6.4TB 到 51.2TB 不等。 每个都带来了显着降低服务调用频率的承诺,以及高达 400,000 IOPS 的性能、5GB/s 的带宽和更强大的 QoS 引擎之一。 

X-IO 在这一点上已经存在了足够长的时间,以至于他们有许多客户达到五年保修窗口,至少在某种程度上验证了管理简单性的关键信息。 但是,对于全闪存配置,挑战略有不同。 X-IO 通过在阵列级别引入磨损均衡的概念减轻了对耐久性的担忧。 这实质上是在系统级别管理每个 SSD 的健康状况,确保以相对平等的方式写入驱动器。 最终用户无需担心单个驱动器,因为系统会管理磨损。 事实上,X-IO 甚至不通过其 GUI 公开驱动器; 用户只需管理从可用池中划分出来的卷。

X-IO 是全闪存阵列空间中为数不多的提供 QoS 的产品之一。 在 ISE Manager 中,管理员可以为每个 LUN 指定最小、最大和突发 IOPS 功能。 该过程只需单击几下,规则就会自动应用。 这让业务关键卷具有有保证的性能,而不必担心吵闹的邻居。 此外,ISE 800 系列支持精简配置,并通过 Cinder 驱动程序与 VMware VASA、vSphere Web Client、vCOP 和 OpenStack 集成。

本次审查以 ISE 860 G3 为中心,同时使用同一机箱中的 820 DataPac 收集了有限的数据子集。 ISE 800 系列 G3 全闪存阵列现已发货,ISE 124,900 的标价为 820 美元,ISE 320,500 的标价为 850 美元,ISE 575,000 的标价为 860 美元。 

X-IO Technologies ISE 800 系列 G3 规格

  • 容量
    • 伊势 820 G3
      • RAID 之前:6.4TB(每个 DataPac 20x200GB SSD)
      • RAID 10 容量:2.7TB
      • RAID 5 容量:4.3TB
    • ISE 850 G3(每个 DataPac 10×1.6TB SSD)
      • RAID 前:25.6TB
      • RAID 10 容量:11.4TB
      • RAID 5 容量:18.3TB
    • ISE 860 G3(每个 DataPac 20×1.6TB SSD)
      • RAID 前:51.2TB
      • RAID 10 容量:22.9TB
      • RAID 5 容量:36.6TB
  • 2.2 GHz,6 核 Intel CPU,每个控制器 16GB DRAM
  • 满负荷运行
    • 高达 400,000 次 IOPS
    • 高达 5GB/s 的带宽
    • ISE 智能缓存算法将优化 512B 和 1MB 之间的 I/O 大小
  • 主机连接
    • 8Gb 光纤通道 – 8 个 SFP 端口(支持 SAN 和 DAS 连接)
    • 具有局域网唤醒功能的 1GbE 管理端口
  • 特色
    • 双活同步镜像
    • 精简配置
    • 服务质量
    • ReST 网络服务 API
  • 电力
    • 典型值 600 瓦,最大值 700 瓦
    • 电压 100-240 伏交流电,47-63 赫兹
    • 6.6V 时电流为 110A,3.6V 时为 208A
    • 散热量(最大)2400BTU/小时
  • 身体统计
    • 5.2 厘米(13.2 英寸)高 x 17.5 厘米(44.45 英寸)宽 x 28.5 厘米(72.8 英寸)深
    • 72 磅(32.9 千克),不含 DataPacs

X-IO Technologies ISE 860 G3 设计和构建

与 ISE 的早期版本一样,该设计的亮点是两个前置 DataPacs,当设备通电时,它们被插入然后锁定到位。 每个 800 系列型号都使用相同的机箱和控制器; 区别只是位于其中的 DataPac 和 SSD 的容量。 该装置的前部还有两个超级电容器组,旨在保持足够长的时间,以便在意外断电时将传输中的写入刷新到非易失性存储中。 当电源恢复在线时,此数据将写入主存储池。 860 中的 SAS 背板得到了增强,以更好地利用全闪存配置的 IO 功能。 

该装置的后部具有冗余电源以及两个控制器。 每个控制器均由一个 2.2 GHz、6 核英特尔 CPU 和板载 16GB DRAM 供电。 除了每个控制器上的四个 8Gb 光纤通道端口外,还有一个管理 1GbE 端口、控制台端口、两个 USB 插槽和一个 SAS 端口。 

X-IO Technologies ISE 860 G3 设置和配置

ISE Manager Suite 与 Citrix、Linux、Microsoft 和 VMware 集成,创建了一个使 ISE 管理非常简单的环境。 事实上,X-IO 喜欢说您不需要成为训练有素的存储管理员来部署和管理 ISE。 我们将 ISE Manager Suite 与我们的 VMware vCenter 集成在一起。 在左侧,管理员可以在 SAN 组、性能适配器和收集日志之间进行选择。 通过 SAN 组,还有几个选项卡,包括服务器视图、存储视图、物理视图、ActiveWatch 视图、性能视图、日志视图、CloudStack 和 X-Volume。

通过物理视图,用户可以检查阵列的几个一般属性。 沿着左侧向下运行是系统健康状况的读数。 用户可以检查 DataPacs。 可以检查的方面包括它们是否可操作、它们处于什么位置、它们的类型(在本例中为闪存)以及它们属于哪个池。 

Physical View 还允许人们检查存储池。 显示诸如有多少闪存可用、池中有哪个 DataPac(在本例中均如此)以及可用容量和总容量等详细信息。

在 Storage View 中,用户可以看到不同的存储池、它们的大小、RAID 配置、池固定位置以及设置性能最大值和最小值。 

Performance View 允许管理员实时跟踪性能。 可以很容易地跟踪性能。 例如,从 SQL 工作负载开始的整个测量可以在下面看到。 随着数据移入主机 DRAM,读取逐渐减少,尽管每次日志写入都可以看到大的写入突发。

在虚拟化 Sysbench 测试开始时,有 16 个 VM 对阵列进行重击,您可以看到大量的读写混合对两个控制器产生了影响。

一旦 16VM Sysbench 测试趋于平稳,您可以看到阵列达到稳态条件。

应用性能分析

- 联机事务处理平台 基准运行在 Percona MySQL 之上,利用在 CentOS 安装中运行的 InnoDB 存储引擎。 为了使我们对传统 SAN 的测试与较新的超融合设备保持一致,我们已将许多基准测试转移到更大的分布式模型。 主要区别在于,我们现在不是在裸机服务器上运行一个基准测试,而是在虚拟化环境中运行该基准测试的多个实例。 为此,我们在 X-IO ISE 1 上部署了 4、8、12、16 和 860 个 Sysbench 虚拟机,每个节点 1-4 个,并测量了所有同时运行的集群的总体性能。 该测试旨在展示阵列在正常到极端工作负载下的自我处理能力。 在测试的高峰期,我们为虚拟机所在的四台 ESXi 主机分配全部任务,并确定每台主机的 DRAM 使用情况。

Dell PowerEdge R730 虚拟化 Sysbench 4 节点集群

  • 集群中 5 个 2690GHz 的 Intel E3-249 v2.6 CPU(每个节点两个,12GHz,30 核,XNUMXMB 缓存) 
  • 1TB RAM(每个节点 256GB,16GB x 16 DDR4,每个 CPU 128GB)
  • SD 卡引导 (Lexar 16GB)
  • 4 个 Mellanox ConnectX-3 InfiniBand 适配器(用于 vMotion 和 VM 网络的 vSwitch)
  • 4点¯x Emulex 16GB 双端口 FC HBA
  • 4点¯x Emulex 10GbE 双端口网卡
  • VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU

每个 Sysbench VM 配置了三个虚拟磁盘,一个用于启动 (~92GB),一个用于预构建数据库 (~447GB),第三个用于我们将测试的数据库 (400GB)。 从系统资源的角度来看,我们为每个虚拟机配置了 16 个 vCPU、64GB DRAM 并利用了 LSI Logic SAS SCSI 控制器。

我们的 Sysbench 测试测量平均 TPS(每秒事务数)、平均延迟以及在 99 个线程的峰值负载下的平均 32% 延迟。

查看每秒的平均交易量,XIO ISE 860 在使用一台虚拟机时发布了 1,762 TPS。 当将配置提升到 4 个虚拟机时,我们看到 TPS 有了巨大的提高,达到 4,424,增加了大约 150%。 当从 4 个虚拟机增加到 8 个虚拟机 (38%) 以及从 8 个虚拟机增加到 12 个虚拟机 (9%) 时,我们还看到了性能的提高。 然而,当增加到 16 个虚拟机时,我们发现 TPS 略有下降 7.4%。 即使整体性能下降到 16 个虚拟机,X-IO ISE 860 也证明了自己是在令人难以置信的负载下保持该性能水平的绝对强大力量。

在平均延迟中,很明显,添加到 XIO ISE 860 的虚拟机越多,记录的延迟就越高。 当我们将 ISE 860 的 1 个虚拟机配置(18 毫秒)更改为 4 个虚拟机(29 毫秒)时,延迟增加了 61%。 从 4 个虚拟机到 8 个虚拟机,我们看到增加了 34.5%,而当从 38.5 个虚拟机移动到 8 个虚拟机时,我们记录了 12% 的增加。 最后,当使用 16 个虚拟机时,我们测得延迟为 48%。 回顾我们上面的 TPS 图表,请注意,当使用 12 个 VM 时,它提供了最高的性能,而 16 个 VM 开始降低 TPS 并进一步增加延迟。

就我们最坏情况下的 MySQL 延迟情况(第 99 个百分位延迟)而言,XIO SE 860 的延迟仅略有增加,从 1 个虚拟机变为 4 个虚拟机,然后再次从 4 个虚拟机变为 8 个虚拟机。 然而,当添加 12 个虚拟机时,我们发现延迟显着增加了 113%,而当从 12 个虚拟机移动到 16 个虚拟机 (136%) 时,延迟增加得更多。

存储评论的 Microsoft SQL Server OLTP 测试协议 采用事务处理性能委员会基准 C (TPC-C) 的当前草案,这是一种在线事务处理基准,模拟复杂应用程序环境中的活动。 TPC-C 基准比综合性能基准更接近于衡量数据库环境中存储基础设施的性能优势和瓶颈。

此测试使用在 Windows Server 2014 R2012 来宾虚拟机上运行的 SQL Server 2,由戴尔的数据库基准工厂进行压力测试。 虽然我们对该基准测试的传统用法是在本地或共享存储上测试 3,000 规模的大型数据库,但在本次迭代中,我们专注于在我们的 X-IO ISE 1,500 上均匀分布四个 860 规模的数据库,以更好地说明内部的总体性能一个 4 节点 VMware 集群。 

二代SQL Server OLTP基准工厂LoadGen设备

  • Dell PowerEdge R730 VMware ESXi vSphere 虚拟客户端主机 (2)
    • 集群中 5 个 2690GHz Intel E3-124 v2.6 CPU(每个节点两个,12GHz,30 核,XNUMXMB 缓存) 
    • 512GB RAM(每个节点 256GB,16GB x 16 DDR4,每个 CPU 128GB)
    • SD 卡引导 (Lexar 16GB)
    • 2 个 Mellanox ConnectX-3 InfiniBand 适配器(用于 vMotion 和 VM 网络的 vSwitch)
    • 2点¯x Emulex 16GB 双端口 FC HBA
    • 2点¯x Emulex 10GbE 双端口网卡
    • VMware ESXi vSphere 6.0 / Enterprise Plus 4-CPU
  • Dell PowerEdge R730 虚拟化 SQL 4 节点集群

    • 集群中 5 个 2690GHz 的 Intel E3-249 v2.6 CPU(每个节点两个,12GHz,30 核,XNUMXMB 缓存) 
    • 1TB RAM(每个节点 256GB,16GB x 16 DDR4,每个 CPU 128GB)
    • SD 卡引导 (Lexar 16GB)
    • 4 个 Mellanox ConnectX-3 InfiniBand 适配器(用于 vMotion 和 VM 网络的 vSwitch)
    • 4点¯x Emulex 16GB 双端口 FC HBA
    • 4点¯x Emulex 10GbE 双端口网卡
    • VMware ESXi vSphere 6.0 / Enterprise Plus 8-CPU

每个 SQL Server VM 配置有两个虚拟磁盘,一个 100GB 用于启动,另一个 500GB 用于数据库和日志文件。 从系统资源的角度来看,我们为每个虚拟机配置了 16 个 vCPU、64GB DRAM 并利用了 LSI Logic SAS SCSI 控制器。

在 SQL Server 测试中进行基准测试的 X-IO ISE 860 无疑完全有能力处理 15,000 个虚拟用户,因为 XIO ISE 860 拥有 12,564.9 TPS 的总平均速度。

当查看具有相同虚拟用户工作负载的平均延迟时,X-IO ISE 860 的整体平均延迟为 13 毫秒,12 个虚拟机之间的延迟为 14 至 4 毫秒。 这是 ISE 860 在卷之间的一致性及其低延迟响应能力帮助它取得领先数字的另一个领域。

企业综合工作负载分析

在启动每个 fio 综合基准,我们的实验室在 16 个线程的重负载下将系统预置为稳定状态,每个线程有 16 个未完成队列。 然后使用多个线程/队列深度配置文件以设定的时间间隔测试存储,以显示轻度和重度使用情况下的性能。

  • 预处理和初级稳态测试:
  • 吞吐量(读+写 IOPS 聚合)
  • 平均延迟(读+写延迟一起平均)
  • 最大延迟(峰值读取或写入延迟)
  • 延迟标准偏差(读+写标准偏差一起平均)

该综合分析包含两个在制造商规范和基准中广泛使用的配置文件:

  • 4k – 100% 读取和 100% 写入
  • 8k – 70% 读取/30% 写入

第三代FIO LoadGen

  • HP ProLiant DL380 Gen9
    • 双 Intel E5-2667 v3 CPU(3.2GHz,8 核,20MB 缓存) 
    • 256GB 内存(16GB x 16 DDR4,每个 CPU 128GB)
    • Windows服务器2012 R2的
    • 400GB 启动固态硬盘
    • 2点¯x Emulex 16GB 双端口 FC HBA
  • Brocade 6510 48 端口 16Gb 交换机

我们的第一个基准测量由 4% 写入和 100% 读取活动组成的随机 100k 传输的性能。 在吞吐量方面,X-IO ISE 860 使用 RAID286,694 配置记录了 117,131 IOPS 读取和 5 写入。 在 RAID1 中,它测得 281,253 IOPS 读取和更好的写入 174,572 IOPS。

X-IO ISE 860 在 RAID0.89 中的平均读取延迟仅为 2.18 毫秒,写入延迟为 5 毫秒,而 RAID1 的读取延迟为 0.91 毫秒,并再次显示出 1.46 毫秒的卓越写入延迟。

在进行我们的最大延迟测试时,RAID860 中的 X-IO ISE 1 读取时间为 22.7 毫秒,写入时间为 17.2 毫秒,而 RAID5 配置测得的读取时间为 24.1 毫秒,写入时间为 27.0 毫秒。  

 

在我们的标准偏差测试中,RAID1 配置继续其出色的结果,读取时间仅为 0.25 毫秒,写入时间仅为 1.06 毫秒。 尽管 RAID5 配置显示类似的读取,但它的写入延迟更高(1.82 毫秒)。

转向 8k 70% 读取 30% 写入随机工作负载,两种 X-IO ISE 860 配置在我们的线程中显示几乎相同的结果。 RAID5 配置在 16T/8Q 时才开始逐渐消失,最终达到大约 185,000 IOPS。 RAID1 显示终端吞吐量约为 230,000 IOPS。

观察平均延迟说明了一个类似的故事,因为 RAID1 和 RAID5 再次显示相似的结果,只是在 8T16Q 左右分开。 在终端深度,RAID5 的平均延迟大约为 1.4 毫秒,而 RAID1 为 1.2 毫秒。

在查看峰值延迟性能时,结果不太相似。 在这里,RAID1 在 16T2Q 的最初 2 毫秒开始,而在终端达到 32 毫秒。 RAID860 中的 X-IO ISE 5 在 18T2Q 时测得 2ms,在 30T16Q 时测得 16ms。

如下所示,我们的标准偏差结果与我们的平均延迟图表非常相似。 两种 RAID 配置都从 0.1ms 开始,逐渐以 4T4Q 标记分开。 在终端线程中,RAID5 配置达到 0.73ms,而 RAID1 达到 0.51ms。

我们的下一个工作负载转移到 8K 小块顺序测试。 在这种情况下,RAID860 中的 ISE 5 在读取和写入性能方面均略有领先,测量结果为 434,562 IOPS 读取和 231,022 IOPS 写入,而 RAID1 测量结果为 431,200 IOPS 读取和 229,683 IOPS 写入。 就峰值 I/O 潜力而言,ISE 860 没有让人失望。

我们最后的工作负载是 128K 大块顺序测试。 在这种情况下,两种 RAID 配置的结果相似:RAID5 显示 4,513MB 读取和 1,767MB/s 写入,而 RAID1 分别显示 4,503MB/s 和 1,913MB/s 读取和写入。 虽然顺序性能在您最终会看到高度随机化的流量的繁重虚拟化世界中并没有发挥重要作用,但看到阵列有一些力量可以将速度推高至 4.5GB/s 仍然很高兴。 顺序大块写入性能有点低,但考虑到它在我们的应用程序测试中的表现,这在实际条件下不会产生太大影响。

第 1 部分最后的想法

在审查的第 2 部分中,我们将检查其他几个性能领域。 从我们目前所看到的情况来看,有足够的理由对其余测试持乐观态度,其中包括 VMmark、内存数据库中的 DataFusion 和 OpenLDAP 数据库测试等。 遗憾的是,我们几乎无法直接与 ISE 860 进行比较。 我们为测试部署的 Gen2 测试方法和实验室主干(戴尔服务器)刚刚展示了成功的成果,ISE 860 是第一个通过审查的 SAN。 然而即便如此,回顾类似的结果并进行一些推断,这告诉我们 XIO ISE 平台已准备好与其他全闪存重量级产品一起登上主舞台,在非常高的水平上竞争关键业务工作负载。 第 2 部分将揭示更多,因为我们通过在 VMmark 中运行超过 20 个图块,再次将系统推向极限。 请继续关注下一期。

接下来: X-IO Technologies ISE 860 G3 评测:第 2 部分

ISE 800 系列 G3 产品页面

讨论这篇评论

注册 StorageReview 时事通讯