EchoStreams OSS1A 是一个 1U 机架系统,设计用作灵活的设备服务器平台,最引人注目的是其仅 21 英寸的深度。 OSS1A 采用双处理器 Intel C602A 芯片组,支持 Intel Xeon E5-2600 V2 CPU 和高达 384GB 的 RAM,以提供在空间受限和现场部署中处理各种任务所需的马力。
EchoStreams OSS1A 是一个 1U 机架系统,设计用作灵活的设备服务器平台,最引人注目的是其仅 21 英寸的深度。 OSS1A 采用双处理器 Intel C602A 芯片组,支持 Intel Xeon E5-2600 V2 CPU 和高达 384GB 的 RAM,以提供在空间受限和现场部署中处理各种任务所需的马力。
我们对 OSS1A 的审查不仅基于其在我们的企业性能基准测试套件中的表现,还基于我们自己使用 OSS1A 作为其一部分的经验 StorageReview 现场测试工具包. 我们之所以选择 OSS1A 用于现场基准测试,是因为服务器占地面积小,而且它有能力执行我们实验室基准测试环境的许多功能,而不会成为瓶颈。
EchoStreams OSS1A 提供三种配置,除了可选的内部 SSD 托架外,还可以使用不同的内部存储选项:两个前置 15 毫米 2.5 英寸托架; 两个内部 15mm 2.5 英寸驱动器托架; 四个前置 7 毫米 2.5 英寸托架; 或两个带有 LCD 显示面板的内部 2.5 英寸托架。 即将推出的 Haswell 版本也在开发中,它将提供 500W 电源来处理最高 160W TDP 处理器。 Haswell版本还将支持两张FHHL Gen3 X16卡,或者一张FHHL加一个I/O模块,支持双10Gb、40Gb或IB,外加一对SFF8644端口,用于板载SAS3008的SAS扩展。 此功能将使该平台成为连接到 EchoStreams eDrawer2J(4060U4bay 双 60G 扩展器 JBOD)的存储头节点(12 个用于 HA)的理想平台,运行 NexantaStor 或其他软件定义的存储堆栈。 在该配置中,前面的四个 SSD 可用作缓存。
我们的评测单元具有两个前置 2.5 英寸托架和两个 Intel Xeon E5-2697 v2 处理器(2.7GHz、30MB 缓存和 12 核)的外形。 我们还为服务器配置了 16GB (2x 8GB) 1333MHz 的 DDR3,带有注册的 RDIMM 和 100GB 美光 RealSSD P400e 作为引导驱动器。 通常,我们的 EchoStreams OSS1A 配置有两个 Emulex LightPulse LPe16202 Gen 5 光纤通道 HBA(8GFC、16GFC 或 10GbE FCoE)PCIe 3.0 双端口 CFA 或两个 Mellanox ConnectX-3 双端口 10GbE 以太网 PCIe 3.0 NIC。 当服务器用于驱动基准测试时,这些组件会根据被测试的设备和所需的工作负载进行交换。
Echostreams OSS1A 规格
- 支持的 CPU:双路 2011 Intel Xeon E5 2600 V2 (Ivy Bridge) 处理器
- 芯片组:Intel C602A
- 支持的内存:高达 384GB DDR3 800/1066/1333/1600 RDIMM/ECC UDIMM/Non-ECC UDIMM/LR-DIMM
- I / O接口:
- 2 个后置 USB
- 1 个前置 USB
- 1 x VGA 接口
- 4 个千兆以太网
- 1 x MGMT 局域网
- 扩展槽:1x PCIe Gen3 X16 FHHL & 1x PCIe Gen3 X8 LP 插槽
- 存储:
- 2 x 2.5″ 热插拔托架或
- 4 x 2.5″ 7mm 热插拔托架或
- 2 个内部 2.5 英寸托架。
- 服务器管理:带有 iKVM 的 IPMI
- 冷却:3x 97mm 鼓风机
- 前面板显示屏:
- 1 x 电源开/关开关和 LED
- 1 x 定位开关和 LED
- 1 个复位开关
- 1 x 系统警告 LED
- 4 x 局域网 LED
- 电源:400W高效1+1冗余电源
- 毛重:35 磅
- 尺寸:
- 系统:21″ x 17″ x 1.74″
- 包装:36” x 24.5” x 10.5”(长x宽x高)
- 环境:
- 工作温度:0°C至35°C
- 非工作温度:-20°C 至 70°C
- 湿度:5%至95%,无冷凝
- 合规性:符合 CE、FCC A 类、RoHS 6/6 标准
- 兼容操作系统:Linux RedHat Enterprise 6 64 位、Suse Linux Enterprise Server 11.2 64 位、VMWare ESX 4.1/ESXi4.1、Windows 2008 R2、Windows Server 2012、CentOS 5.6、Ubuntu 11.10
建筑与设计
我们的 OSS1A 审查单元包含两个可从前面访问的 2.5 英寸驱动器托架,这些驱动器托架嵌入可拆卸的铝制边框中。 前端还提供对一个 USB 端口的访问,以及一个定位器开关和 LED、电源开关和 LED、一个复位开关、一个系统状态 LED 以及对应于系统背面集成以太网端口的四个 LED。
升高的风扇排气位于前挡板后面,紧邻双 CPU 和 DDR3 RAM 的前面。 EchoStreams OSS1A 在系统右侧以 400+1 热插拔方式整合了一个双 1W 电源。 我们为该服务器配置了 100GB Micron RealSSD P400e 引导驱动器。
后面板包含 4 个 GbE 端口(包括一个用于管理的端口)、2 个 USB 端口、一个 VGA 端口和扩展卡接口。
测试背景和存储介质
我们发布一个 我们实验室环境的清单,一个 实验室网络能力概述,以及有关我们测试协议的其他详细信息,以便管理员和负责设备采购的人员可以公平地衡量我们取得公布结果的条件。 为了保持我们的独立性,我们的评论都不是由我们正在测试的设备制造商支付或管理的。
在我们的标准审查流程中,供应商向我们运送了被审查的平台,我们将其安装在 StorageReview Enterprise 测试实验室中以进行性能基准测试。 然而,对于某些平台,这种方法存在尺寸、复杂性和其他后勤障碍,这就是 EchoStreams OSS1A 发挥作用的时候。
我们最近对 EMC VNX5200 平台的审查 是要求我们带着 OSS1A 前往 EMC 实验室以进行 iSCSI 和 FC 性能测试的情况示例。 EMC 提供了一个 8Gb FC 交换机,而我们带来了一个 Mellanox 10/40Gb SX1024 交换机用于以太网连接。 下面的性能部分基于使用驱动工作负载的 OSS1A 和作为存储阵列的 VNX5200 进行的基准测试。
- 2 个 Intel Xeon E5-2697 v2(2.7GHz,30MB 缓存,12 核)
- 英特尔 C602A 芯片组
- 内存 – 16GB (2x 8GB) 1333MHz DDR3 Registered RDIMM
- Windows Server标准2012 R2的
- 引导固态硬盘:100GB 美光 RealSSD P400e
- 2 个 Mellanox ConnectX-3 双端口 10GbE NIC
- 2 个 Emulex LightPulse LPe16002 Gen 5 光纤通道(8GFC、16GFC)PCIe 3.0 双端口 HBA
企业综合工作负载分析
在启动每个 fio 综合基准,我们的实验室在 16 个线程的重负载下将设备预处理到稳定状态,每个线程有 16 个未完成队列。 然后使用多个线程/队列深度配置文件以设定的时间间隔测试存储,以显示轻度和重度使用情况下的性能。
预处理和初级稳态测试:
- 吞吐量(读+写 IOPS 聚合)
- 平均延迟(读+写延迟一起平均)
- 最大延迟(峰值读取或写入延迟)
- 延迟标准偏差(读+写标准偏差一起平均)
该综合分析包含四种配置文件,这些配置文件广泛用于制造商规范和基准测试:
- 4k 随机 – 100% 读取和 100% 写入
- 8k 顺序 – 100% 读取和 100% 写入
- 8k 随机 – 70% 读取/30% 写入
- 128k 顺序 – 100% 读取和 100% 写入
当配置了 SSD 并由 EchoStreams OSS1A 通过光纤通道访问时,VNX5200 发布了 80,472IOPS 读取和 33,527IOPS 写入。 在我们的 iSCSI 块级测试中使用 RAID10 中的相同 SSD,VNX5200 实现了 37,421IOPS 读取和 22,309IOPS 写入。 使用光纤通道连接切换到 RAID15 中的 5K HDD 显示 12,054IOPS 读取和 3,148 IOPS 写入,而 10K HDD 配置达到 7,688IOPS 读取和 2,835IOPS 写入。 在相同连接类型的 RAID7 配置中使用 6K HDD 时,EchoStreams OSS1A 和 VNX5200 读取 4,390IOPS,写入 1,068IOPS。
当在 RAID10 中配置 SSD 并使用光纤通道连接时,此配置显示读取时间为 3.18 毫秒,写入时间为 7.63 毫秒。 在我们的 iSCSI 块级测试中使用相同的 SSD,该系统拥有 6.84 毫秒的读取时间和 11.47 毫秒的写入时间。 使用光纤通道连接切换到 RAID15 中的 5K HDD 显示平均延迟为 21.23ms 读取和 81.31ms 写入,而 10K HDD 配置显示 33.29ms 读取和 90.31ms 写入。 在 RAID7 配置中切换到 6K HDD 时,VNX5200 的读取时间为 58.29 毫秒,写入时间为 239.64 毫秒。
当在 RAID10 中配置 SSD 并使用我们的 iSCSI 块级测试时,我们的最大延迟结果时钟为读取操作 197 毫秒和写入操作 421.8 毫秒。 使用具有光纤通道连接的相同 SSD,系统测得读取时间为 202.1 毫秒,写入时间为 429.2 毫秒。 使用光纤通道连接切换到 RAID15 中的 5K HDD 记录了 1,311.3ms 读取和 1,199.2ms 写入最大延迟,而 10K HDD 配置记录了 2,687.8ms 读取和 2,228.1ms 写入。 在相同连接类型的 RAID7 配置中切换到 6K HDD 时,OSS1A 和 VNX5200 的读取时间为 3,444.8 毫秒,写入时间为 2,588.4 毫秒。
我们最后的 4K 基准是标准偏差,它衡量系统的一致性的延迟性能. 当使用我们的 iSCSI 块级测试在 RAID10 中配置 SSD 时,OSS1A 和 VNX5200 发布 3.30ms 读取和 12.06ms 写入。 使用具有光纤通道连接的相同 SSD 显示读取时间为 9.20 毫秒,写入时间为 14.32 毫秒。 切换到具有光纤通道连接的 RAID15 中的 5K HDD 记录了 25.93ms 读取和 120.53ms 写入,而 10K HDD 配置记录了 35.37ms 读取和 175.66ms 写入。 使用相同连接类型的 7K HDD RAID6 配置时,VNX5200 的读取时间为 52.75 毫秒,写入时间为 254.55 毫秒。
我们的下一个基准测试使用由 100% 读取操作和 100% 写入操作组成的顺序工作负载,传输大小为 8k。 此处,当 VNX1 在 RAID178,959 光纤通道连接中配备 76,022K HDD 时,OSS5200A 测得读取 10IOPS 和写入 IOPS 5。 在具有光纤通道连接的 RAID15 中使用 5K HDD 显示 176,895IOPS 读取和 77,505IOPS 写入。 使用光纤通道连接切换到 RAID10 中的 SSD 记录了 169,833IOPS 读取和 74,470IOPS 写入,而 SSD iSCSI 块级测试显示 69,303IOPS 读取和 40,379IOPS 写入。 在具有光纤通道连接的 RAID7 配置中使用 6K HDD 时,VNX5200 发布了 75,982IOPS 读取和 76,122IOPS 写入。
我们的下一系列工作负载由 8k 读取 (70%) 和写入 (30%) 操作混合组成,最多 16 个线程 16 个队列,我们的第一个是吞吐量。 当使用光纤通道连接在 RAID10 中配置 SSD 时,OSS1A 和 VNX5200 发布了一系列 8,673IOPS 至 41,866T/16Q 为 16IOPS. 在我们的 iSCSI 块级测试期间使用相同的 SSD 显示了一系列 6,631IOPS 至 28,193IOPS. 在 RAID15 中切换到具有光纤通道连接的 5K HDD 记录了一系列 1,204IOPS 和 6,411IOPS,而 10K HDD 配置在 826T/5,113Q 下发布了 16 IOPS 和 16 IOPS。 当使用相同连接类型的 7K HDD RAID6 配置时,系统发布的范围为 267IOPS 到 2,467IOPS。
接下来,我们查看了平均延迟。 当 VNX5200 使用光纤通道连接在 RAID10 中配置 SSD 时,OSS1A 测量的 0.45T/6.11Q 范围为 16 毫秒至 16 毫秒。 在我们的 iSCSI 块级测试期间使用相同的 SSD 显示范围为 0.59 毫秒到 9.07 毫秒。 在具有光纤通道连接的 RAID15 中切换到 5K HDD 记录的范围为 3.31ms 和 39.89ms,而 10K HDD 配置最初为 4.83ms,49.97T/16Q 为 16ms。 使用相同连接类型的 7K HDD RAID6 配置时,VNX5200 发布的范围为 14.93 毫秒至 103.52 毫秒。
使用光纤通道连接的 RAID10 中 SSD 的最大延迟结果范围为 27.85 毫秒到 174.43 毫秒(16T/16Q)。 在我们的 iSCSI 块级测试期间使用相同的 SSD 显示最大延迟范围为 31.78 毫秒至 134.48 毫秒。 在具有光纤通道连接的 RAID15 中切换到 5K HDD 记录的范围为 108.48ms 和 2,303.72ms,而 10K HDD 配置显示 58.83T/2,355.53Q 为 16ms 和 16ms。 使用相同连接类型的 7K HDD RAID6 配置时,VNX5200 发布的最大延迟范围为 82.74 毫秒至 1,338.61 毫秒。
我们的下一张图表绘制了 8k 70% 读取和 30% 写入操作期间延迟的标准偏差计算。 在使用光纤通道连接的 RAID10 中使用 SSD,VNX5200 通过 0.18T/10.83Q 公布的范围仅为 16 毫秒至 16 毫秒。 在 iSCSI 块级测试期间使用相同的 SSD 显示延迟一致性的相似范围为 0.21 毫秒至 11.54 毫秒。 在具有光纤通道连接的 RAID15 中切换到 5K 硬盘记录了 3.48 毫秒到 56.58 毫秒的范围,而 10K 硬盘配置最初显示为 2.5 毫秒,66.44T/16Q 为 16 毫秒。 当使用相同连接类型的 7K HDD RAID6 配置时,VNX5200 发布的标准偏差范围为 7.98 毫秒至 110.68 毫秒。
我们最终的综合基准测试使用顺序 128k 传输和 100% 读取和 100% 写入操作的工作负载。 在此场景中,当使用我们的 iSCSI 块级测试为 VNX1 配置 SSD 时,OSS2.84A 测得的读取速度为 1.26GB/s,写入速度为 5200GB/s。 在具有光纤通道连接的 RAID15 中使用 5K HDD 显示 2.48GB/s 读取和 2.33GB/s 写入。 切换回具有光纤通道连接的 RAID10 中的 SSD,OSS1A 记录了 2.48GB/s 的读取速度和 3.06GB/s 的写入速度。 当在具有光纤通道连接的 RAID7 配置中使用 6K HDD 时,VNX5200 达到 2.47GB/s 读取和 2.68GB/s 写入,而 10K HDD 配置发布 2.47GB/s 读取和 3.22GB/s 写入。
结语
自从 EchoStreams OSS1A 首次出现在 StorageReview 以来,它已成为我们实验室的重要组成部分,它允许我们创建企业存储基准环境的移动版本。 我们发现机箱设计是灵活性和尺寸之间的一种深思熟虑的折衷方案。 内部布局还允许相对轻松地重新配置,例如在更换 PCIe 扩展卡以与各种网络协议和环境接口时。 所有这些都不会影响性能,而该平台支持双英特尔至强 E52600 v2 处理器和高达 384GB 的 DDR3 内存。
这种性能和小尺寸的结合使 EchoStreams OSS1A 成为一个多功能平台,可以部署到依赖外部共享存储的应用程序服务器。 如此紧凑意味着您的数据中心使用的空间更少,而且非常便携,可以作为现场单元部署在远程办公室等。 机箱还可以针对具有不同前置存储选项的用例进行定制,提供多达 4 个 7 毫米插槽供需要更快板载存储的 SSD 使用。 总的来说,EchoStreams OSS1A 在一个令人难以置信的短 21 英寸深的封装中提供了大量的性能。
优点
- 短深度 1U 外形使系统更便携,并且能够安装在空间非常宝贵的情况下
- 足够的处理器能力和 RAM 容量来处理各种工作负载
缺点
- 由于机箱尺寸,内部存储容量有限
底线
EchoStreams OSS1A 提供了执行各种任务的性能和灵活性,封装在一个令人印象深刻的短深度 1U 机箱中,简化了空间受限位置的运输和安装。 这种组合使 OSS1A 成为 StorageReview 现场测试工具包中不可或缺的组件。