Synology 有一系列不错的 NAS 设备,非常适合 SOHO 和 SMB。 唯一的缺点是中端 NAS 通常在构建时并没有考虑到最高性能和网络速度。 多亏了一张新的附加卡,现在他们不必再这样了。 随着 Synology E10M20-T1 AIC 的推出,用户可以通过一张卡获得更高的 I/O 和带宽。
Synology 有一系列不错的 NAS 设备,非常适合 SOHO 和 SMB。 唯一的缺点是中端 NAS 通常在构建时并没有考虑到最高性能和网络速度。 多亏了一张新的附加卡,现在他们不必再这样了。 随着 Synology E10M20-T1 AIC 的推出,用户可以通过一张卡获得更高的 I/O 和带宽。
对于带宽,Synology E10M20-T1 配备了一个 10GbE 端口,大大提高了板载 GbE 的 NAS 的 I/O。 除了增强的网络性能之外,该卡还配备了两个用于 M.2 驱动器(2280 和 22110 外形规格)的 NVMe SSD 插槽。 这为用户提供了高 I/O 性能,并在不放弃驱动器托架的情况下为 SSD 缓存添加了两个 NVMe 插槽。 这样用户就可以在 NAS 上加载高容量 HDD,同时仍然拥有 SSD 缓存。 该卡在 Synology 的一些没有板载 SSD 插槽的较旧 NAS 系统中也特别有用。
特 Synology E10M20-T1 今天可以以 250 美元的价格购买. 对于那些喜欢的人,我们也有卡片的视频演练。
Synology E10M20-T1 规格
通用 | |
主机总线接口 | PCIe 3.0 x8 |
支架高度 | 薄型和全高 |
尺寸(高 x 宽 x 深) | 71.75毫米x 200.05毫米x 17.70毫米 |
工作温度 | 0°C至40°C(32°F至104°F) |
储藏温度 | -20°C至60°C(-5°F至140°F) |
相对湿度 | 5%至95%相对湿度 |
保修政策 | 5年 |
存储接口 | PCIe NVMe |
支持的外形 | 22110 / 2280 |
连接器类型和数量 | M 键,2 个插槽 |
网络 | |
符合 IEEE 规范 | IEEE 802.3an 10Gbps 以太网 IEEE 802.3bz 2.5Gbps / 5Gbps 以太网 IEEE 802.3ab 千兆以太网 IEEE 802.3u 快速以太网 IEEE 802.3x流控制 |
数据传输率 | 10 Gbps |
网络运行模式 | 全双工 |
支持的功能 | 9 KB 巨型帧 TCP/UDP/IP 校验和卸载 100Mb/s、1Gb/s、2.5Gb/s、5Gb/s 和 10Gb/s 之间的自动协商 |
兼容性 | |
适用型号 NVMe SSD | SA系列:SA3600、SA3400 20系列:RS820RP+、RS820+ 19系列:DS2419+、DS1819+ 18系列:RS2818RP+、DS3018xs、DS1618+ |
设计与建造
Synology E10M20-T1 是一款 HHFL AIC,适用于特定型号的 Synology NAS。 一侧是沿着卡的长度延伸的散热器。
用后部的四颗螺丝卸下散热器,可以看到两个 M.2 NVMe SSD 托架。 总体而言,很容易将驱动器固定在卡上。
卡的背面相对简朴。 如果需要,Synology 还包括一个全尺寸支架,以及一些用于 SSD 的热接触垫。
性能
为了测试 Synology E10M20-T1,我们将它插入了一个 Synology DS1819 +. 我们用 西数红盘 14TB 硬盘驱动器。 对于缓存,我们使用了 Synology 的 SNV3400-400G SSD. 我们在缓存关闭和打开的情况下测试了 RAID6 中 iSCSI 和 CIFS 配置中的驱动器。
企业综合工作负载分析
我们的企业硬盘驱动器基准测试流程预先将每个驱动器置于稳定状态,工作负载与设备将在 16 个线程的重负载下进行测试,每个线程有 16 个未完成队列。 然后在多个线程/队列深度配置文件中以设定的时间间隔对其进行测试,以显示轻度和重度使用情况下的性能。 由于硬盘驱动器很快就会达到其额定性能水平,因此我们只绘制出每个测试的主要部分。
预处理和初级稳态测试:
- 吞吐量(读+写 IOPS 聚合)
- 平均延迟(读+写延迟一起平均)
- 最大延迟(峰值读取或写入延迟)
- 延迟标准偏差(读+写标准偏差一起平均)
我们的企业综合工作负载分析包括四个基于实际任务的配置文件。 开发这些配置文件是为了更容易与我们过去的基准测试以及广泛发布的值(例如最大 4K 读写速度和 8K 70/30,通常用于企业驱动器)进行比较。
- 4K
- 100% 读取或 100% 写入
- 100% 4K
- 8K 70/30
- 70% 读取,30% 写入
- 100% 8K
- 128K(连续)
- 100% 读取或 100% 写入
- 100% 128K
在我们的第一个企业工作负载中,我们测量了 4% 写入和 100% 读取活动的随机 100K 性能的长样本,以获得我们的主要结果。 对于 CIFS,我们看到 170 IPS 读取和 1,461 IOPS 写入没有缓存,4,075 IOPS 读取和 10,950 IOPS 写入缓存处于活动状态。 对于 iSCSI,我们看到 2,897 IOPS 读取和 1,502 IOPS 写入(没有缓存)并且利用 AIC 中的缓存,我们看到 20,021 IOPS 读取和 22,439 IOPS 写入。
在平均延迟为 4K 的情况下,CIFS 在没有缓存的情况下为我们提供了 1,497 毫秒的读取时间和 176 毫秒的写入时间,然后将其打开后,读取时间降至 63 毫秒,写入时间降至 23 毫秒。 iSCSI 读取时间为 88 毫秒,写入时间为 170 毫秒,然后打开缓存,读取时间降至 12.8 毫秒,写入时间为 11.4 毫秒。
接下来是 4K 最大延迟。 在这里,CIFS 在没有缓存的情况下达到了 4,476 毫秒的读取和 3,360 毫秒的写入; 利用 AIC,读取时间降至 339 毫秒,写入时间降至 45 毫秒。 iSCSI 在没有缓存的情况下读取时间为 1,051 毫秒,写入时间为 6,131 毫秒,读取延迟上升至 11,951 毫秒,但写入延迟降至 171 毫秒。
我们最后的 4K 测试是标准偏差。 在没有缓存的情况下,CIFS 为我们提供了 228 毫秒的读取时间和 288 毫秒的写入时间,缓存启用延迟一直下降到 7.3 毫秒的读取时间和 2 毫秒的写入时间。 对于 iSCSI,我们再次看到读取量出现峰值而不是下降,从 69 毫秒非缓存变为 196 毫秒缓存。 写入显示出改进,从 282 毫秒增加到 16 毫秒。
我们的下一个基准测试在 100% 读取和 8% 写入操作中使用 16T16Q 负载测量 100% 100K 顺序吞吐量。 此处,没有缓存的 CIFS 配置读取 IOPS 为 13,989,写入 IOPS 为 10,770; 启用缓存后,数字变为 13,055 IOPS 读取和 11,443 IOPS 写入。 使用 iSCSI,在未启用缓存的情况下,我们看到 56,579 IOPS 读取和 30,288 IOPS,启用它后我们看到性能略有上升,达到 57,774 IOPS 读取和 33,265 IOPS 写入。
与我们在 16% 16K 写入测试中执行的固定 100 线程、4 队列最大工作负载相比,我们的混合工作负载配置文件可在各种线程/队列组合中扩展性能。 在这些测试中,我们将工作负载强度从 2 个线程和 2 个队列扩展到 16 个线程和 16 个队列。 在非缓存 CIFS 中,我们看到吞吐量从 221 IOPS 开始到 219 IOPS 结束,始终非常稳定。 启用缓存后,我们看到 CIFS 以 4,597 IOPS 开始,以 4,844 IOPS 结束。 对于 iSCSI,非缓存开始时为 519 IOPS,结束时为 1,751 IOPS。 激活缓存后,我们看到 iSCSI 从 8,308 IOPS 开始,到 1,340 IOPS 结束。
当查看 8K 70/30 平均响应时间时,CIFS 配置开始时为 18 毫秒,结束时为 1,161 毫秒(非缓存),并且卡处于活动状态时,开始时下降到 860 微秒,结束时为 53 毫秒。 对于 iSCSI,我们看到在没有卡的情况下,开始时为 7.7 毫秒,结束时为 146 毫秒,使用卡时,开始时为 470 微秒,结束时为 191 毫秒。
在 8K 70/30 最大延迟下,CIFS 配置从大约 1,009 毫秒开始,一直上升到 4,799 毫秒。 启用缓存后,整个数字从 523 毫秒下降到 260 毫秒。 使用 iSCSI,我们看到没有缓存的延迟从 1,436 毫秒增加到 5,614 毫秒,有缓存的延迟从 640 毫秒增加到 13,588 毫秒。
对于 8K 70/30 标准偏差,CIFS 配置从 26 毫秒开始,在没有缓存的情况下运行到 477 毫秒,使用 NIC 从 1.3 毫秒到 10.1 毫秒。 对于 iSCSI,我们说在没有缓存的情况下为 17 毫秒到 299 毫秒,而在有缓存的情况下为 920 微秒到 1,155 毫秒。
最后一个企业综合工作负载基准测试是我们的 128K 测试,这是一个大块顺序测试,显示了设备的最高顺序传输速度。 在此工作负载场景中,CIFS 在没有缓存的情况下读取速度为 1.09GB/s,写入速度为 464MB/s,使用缓存时读取速度为 1.14GB/s,读取速度为 484MB/s。 对于 iSCSI,我们看到 1.15GB/s 的读取速度和 443MB/s 的无缓存以及 1.15GB/s 的读取速度和 615MB/s 的写入速度。
结论
Synology 提出了一种通过 Synology E10M10-T20 AIC 将 1GbE 连接和 NVMe 缓存添加到选定数量的 NAS 设备的简单方法。 该卡非常适合公司的 SSD 产品线,并具有适合两个 2280 或 22110 M.2 规格的插槽。 这允许用户用大容量 HDD 加载 NAS,然后使用该卡来提高 I/O 性能。 当然,10GbE 端口通过板载 GbE 端口提高了网络速度。
为了提高性能,我们再次利用了 Synology DS1819 + - WD Red 14TB 硬盘, 只有这次我们添加了 E10M20-T1 AIC 有两个 Synology SNV3400-400G 固态硬盘. 在大多数情况下,但不是所有情况下,我们都看到了性能的提高。 让我们先看看 CIFS 配置的差异,而不是再次列出性能。 在 4K CIFS 吞吐量中,我们看到增加了 3,905 IOPS 读取和 9,489 IOPS 写入。 在 4K 平均延迟中,我们看到读取延迟下降了 1,434 毫秒,写入延迟下降了 153 毫秒。 在 4K 最大延迟中,我们看到读取时间减少了 4,137 毫秒,写入时间减少了 3,315 毫秒。 4K 标准偏差读取下降了 220.7 毫秒,写入下降了 286 毫秒。 在 100% 8K 中,我们看到读取减少了 934 IOPS,写入增加了 673 IOPS。 大块顺序读取速度提高了 50MB/s,写入速度提高了 20MB/s。
借助 iSCSI 性能,我们看到 4K 吞吐量的亮点增加了 17,124 IOPS 读取和 20,937 IOPS 写入。 在 4K 平均延迟中,我们看到读取下降了 75.2 毫秒,写入下降了 158.6 毫秒。 在 4K 最大延迟中,我们看到读取增加了 10,900 毫秒,写入减少了 15,960 毫秒。 4K 标准偏差再次出现延迟峰值,读取时间上升 127 毫秒,写入时间下降 266 毫秒。 在 100% 8K 中,我们看到读取 IOPS 增加了 1,200,写入 IOPS 增加了 2,977。 大块顺序锯读取稳定在 1.15GB/s,有或没有缓存,写入增加 172MB/s。
Synology E10M20-T1 AIC 是添加 10GbE 连接和 SSD 缓存以选择 Synology NAS 型号的简便方法。 虽然它并没有全面提高所有性能,但它确实在我们的几个基准测试中看到了一些显着的提升。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | RSS订阅