NetApp AFF A250 是一款入门级端到端 NVMe 企业阵列。 A250 在后端嵌入了 NVMe SSD,在前端嵌入了 NVMe over FC 主机连接,以入门级价格提供了令人难以置信的性能。 这使中小型企业能够在边缘充分利用其工作负载。
NetApp AFF A250 是一款入门级端到端 NVMe 企业阵列。 A250 在后端嵌入了 NVMe SSD,在前端嵌入了 NVMe over FC 主机连接,以入门级价格提供了令人难以置信的性能。 这使中小型企业能够在边缘充分利用其工作负载。
与 AFF A200 相比,它的性能提高了 45%,存储效率提高了 33%,这在我们的应用程序中很容易得到证明 AFF A250 初评. 我们的基准测试结果只强调了这一点,展示了与上一代模型相比的巨大进步。 这当然不足为奇,因为我们过去测试过的几个 NetApp 系统获得了我们的编辑选择奖。
此外,在用更适合快速变化的 IT 环境的模型替换旧模型时,NetApp 是最一致的公司之一。 我们一直期待在我们的实验室中获得他们的新系统之一,并期待使用 NVMe over Fibre Channel (NVMe-oF) 获得更好的性能配置文件,我们将在本次审查中对此进行研究。
NetApp NVMe-oF – AFF A250 组件
为了达到这一新的性能标准,NetApp 为 AFF A250 配备了 24 核 CPU 和每个 HA 对 128GB 内存,以及该公司的 NS224 存储架架构。 内部存储最多支持 24 个 NVMe SSD,但用户可以将其设置为 8、12 或 24 个驱动器配置。
每个配置的内部 SSD 最高可达 15.3TB,或者每个控制器有 24 个外部 30.2TB SSD。 此外,A250 还配备了两个用于 HA 和集群互连的 25Gb 以太网端口、两个用于主机连接的 10Gbase-T 端口以及两个用于 I/O 扩展的夹层插槽。 A250 还支持 SAS 驱动器,每个驱动器支持高达 30.6TB。
如需详细了解其功能、潜在用例和优势,我们鼓励您阅读我们之前的文章 NetApp AFF A250 复查。
ONTAP 9.9.1
在软件方面,NetApp 现在提供带有 ONTAP 250 的 AFF A9.9.1。 我们之前对 AFF A250 的评论展示了 9.8 版,这是一个专注于简化用户体验的更新。 最新版本侧重于对系统管理器、SAN、数据保护等的增强和补充。
重点包括:
- ONTAP 现在还支持多达 12 个节点,与以前的版本相比有了很大的进步,在以前的版本中,ASA 只能是双节点集群。 这意味着性能和容量的更多横向扩展。
- 最新版本的系统管理器允许用户在配置新卷时手动选择物理存储层。 但是,您仍然可以选择允许 ONTAP 根据平衡放置逻辑自动进行选择。
- 其他更新包括修改 GUI,这包括稍微更改界面、添加新功能并恢复之前删除的一些缺失功能。 例如,仪表板上的 EMS 事件现在会在用户首次登录后显示。
NetApp AFF A250 和基于光纤通道的 NVMe (NVMe-oF)
9.9.1 版本还有一系列其他更新; 然而,对我们来说最重要的(无论如何在本次审查中)是所有 SAN 阵列 (ASA) 现在都可以使用 NVMe over Fibre Channel (NVMe-oF)。
当我们之前查看 NetApp AFF A250 时,我们使用传统的 FC SAN 模式和 12 个 1.92TB NVMe SSD(具有两个 3TB 存储池的 RAID-DP)测试了系统。 因此,对于本次审查,我们将以 NVMe-oF 模式查看系统。
NVMe-oF 旨在增强现有 SAN 工作负载,对于那些希望真正利用 NVMe 的人来说无疑是最佳选择,尤其是在整体性能和应用程序响应时间方面。
NVMe-oF 协议规范于 2016 年推出,从本质上将 NVMe 的快速性能从存储阵列控制器扩展到通过以太网、光纤通道、RoCE 或 InfiniBand 的结构。 该协议利用结构作为传输映射,而不是端点之间没有共享内存的 PCIe 总线。 为了更详细地了解,我们深入研究了 什么是 NVMe-oF 上个夏天。
NetApp AFF A250 规格
最大横向扩展 | 2–24 个节点(12 个 HA 对) |
最大 SSD | 48 |
最大有效容量 | 1.1PB |
每系统规格(主动-主动双控制器) | |
控制器外形 | 2U |
PCIe 扩展槽 | 4 |
FC 目标端口(32Gb 自动量程) | 高达 16个 |
100GbE 端口(40GbE 自动量程) | 4 |
25GbE 端口(10GbE 自动量程) | 高达 16个 |
10Gbase-T(1GbE 自动量程) | 4 |
12Gb/6Gb SAS 端口 | 4 |
支持存储网络 | NVMe/FC、FC、iSCSI、NFS、pNFS、CIFS/SMB、Amazon S3 |
操作系统版本 | ONTAP 9.9.1 或更高版本 |
货架和媒体 | NS224(2U;24 个驱动器,2.5 英寸 SFF NVMe); DS224C(2U;24 个驱动器,2.5 英寸 SFF); DS2246(2U;24 个驱动器,2.5 英寸 SFF) |
NetApp AFF A250 性能 (NVMe-oF)
我们的 A250 配置包括 12 个 1.92TB NVMe SSD 和 NetApp ONTAP 9.9.1。 该阵列由 NetApp 配置为具有两个 3TB 存储池的 RAID-DP。 我们对本次评测的测试是在 NVMe-oF 模式下进行的。 使用跨两个的双交换机光纤通道结构提供连接 Brocade G620 32Gb 交换机.
SQL Server 性能
StorageReview 的 Microsoft SQL Server OLTP 测试协议采用事务处理性能委员会的基准 C (TPC-C) 的最新草案,这是一种模拟复杂应用程序环境中活动的在线事务处理基准。 TPC-C 基准比综合性能基准更接近于衡量数据库环境中存储基础设施的性能优势和瓶颈。
每个 SQL Server VM 都配置有两个虚拟磁盘:100GB 卷用于启动,500GB 卷用于数据库和日志文件。 从系统资源的角度来看,我们为每个虚拟机配置了 16 个 vCPU、64GB DRAM,并利用了 LSI Logic SAS SCSI 控制器。 虽然我们之前测试的 Sysbench 工作负载在存储 I/O 和容量方面使平台饱和,但 SQL 测试寻找延迟性能。
此测试使用在 Windows Server 2014 R2012 来宾虚拟机上运行的 SQL Server 2,并由戴尔的数据库基准工厂进行压力测试。 虽然我们对该基准的传统用法是在本地或共享存储上测试 3,000 规模的大型数据库,但在本次迭代中,我们专注于在我们的服务器上均匀分布四个 1,500 规模的数据库。
SQL Server 测试配置(每个虚拟机)
- Windows服务器2012 R2的
- 存储空间:分配 600GB,使用 500GB
- SQL Server的2014的
-
- 数据库大小:1,500 规模
- 虚拟客户端负载:15,000
- 内存缓冲区:48GB
- 测试时长:3 小时
-
- 2.5 小时预处理
- 30分钟采样期
对于 SQL Server 延迟,A250 (NVMe-oF) 的总得分为 3.5 个虚拟机的 4 毫秒和 25.4 个虚拟机的 8 毫秒。 在 FCP 模式下,A250 的总成绩为 22.75 毫秒(8 个虚拟机)和 8.5 毫秒(4 个虚拟机)。 与上一代 (A250) 相比,您可以看到 A200 的两种模式都有巨大改进,后者在 25VMs 下测量为 4ms。
Sysbench MySQL 性能
我们的下一个存储应用程序基准测试包括通过 SysBench 测量的 Percona MySQL OLTP 数据库。 该测试测量平均 TPS(每秒事务数)、平均延迟和平均 99% 延迟。
每个 Sysbench VM 配置了三个虚拟磁盘:一个用于启动 (~92GB),一个用于预构建数据库 (~447GB),第三个用于测试中的数据库 (270GB)。 从系统资源的角度来看,我们为每个虚拟机配置了 16 个 vCPU、60GB DRAM,并利用了 LSI Logic SAS SCSI 控制器。
Sysbench 测试配置(每个虚拟机)
- CentOS 6.3 64 位
- Percona XtraDB 5.5.30-rel30.1
- 桌子:100
-
- 大小:10,000,000
- 线程:32 数据库
- 内存缓冲区:24GB
- 测试时长:3 小时
-
- 2 小时预处理 32 个线程
- 1 小时 32 个线程
使用 Sysbench OLTP,8 个虚拟机 A250 (NVMe-oF) 的总得分为 15,916 TPS,而 16 个虚拟机的得分为 17,537 TPS。 在 FCP 模式下,13,135 个虚拟机和 16,149 个虚拟机的总得分分别为 8 TPS 和 16 TPS。 A200 的性能只有一半,8.871 个虚拟机和 9,035 个虚拟机分别为 8 TPS 和 16 TPS。
对于 Sysbench 平均延迟,8VM A250 (NVMe-oF) 的总得分为 16.09ms,而 16VM 为 29.23ms。 在 FCP 模式下,19.49VM 和 31.72VM 的合计时间分别为 8ms 和 16ms。 再一次,与上一个相比,性能提升非常显着,因为 A200 公布了 28.86 毫秒(8 个虚拟机)和 56.88 毫秒(16 个虚拟机)。
对于我们最坏情况下的延迟(第 99 个百分位数),NVMe-oF 的总延迟为 38.1 毫秒(8 个虚拟机)和 72.78 毫秒(16 个虚拟机),而 FCP 显示为 51.61 毫秒(8 个虚拟机)和 85.77 毫秒(16 个虚拟机)。 毫不奇怪,这是对 A200 的巨大改进,A84.93 分别为 152.91 个虚拟机和 8 个虚拟机发布了 16 毫秒和 XNUMX 毫秒。
VDBench 工作负载分析
在对存储阵列进行基准测试时,应用程序测试是最好的,综合测试排在第二位。 虽然不能完美代表实际工作负载,但综合测试确实有助于为具有可重复性因素的存储设备建立基线,从而可以轻松地在竞争解决方案之间进行同类比较。
这些工作负载提供了一系列不同的测试配置文件,包括“四个角”测试、常见的数据库传输大小测试,以及来自不同 VDI 环境的跟踪捕获。 所有这些测试都利用通用的 vdBench 工作负载生成器,以及一个脚本引擎来自动化和捕获大型计算测试集群的结果。 这使我们能够在各种存储设备上重复相同的工作负载,包括闪存阵列和单个存储设备。
简介:
- 4K 随机读取:100% 读取,128 个线程,0-120% 重复率
- 4K 随机写入:100% 写入,64 线程,0-120% iorate
- 64K 顺序读取:100% 读取,16 个线程,0-120% 迭代
- 64K 顺序写入:100% 写入,8 个线程,0-120% 迭代
- 综合数据库:SQL 和 Oracle
- VDI 完整克隆和链接克隆跟踪
通过随机 4K 读取,NetApp AFF A250 NVMe-oF 显示出比 FCP 模式有显着改进,在超过 700K 时出现亚毫秒延迟,峰值为 787,910 IOPS,延迟为 3.58 毫秒。 在 FCP 模式下,A250 在超过 500K 之前表现出亚毫秒级延迟,并在 594,388 IOPS 和 6.9 毫秒的延迟时达到峰值。
随机 4K 写入看到的结果更接近一点。 在这里,通过 NVMe-oF 的 A250 在 183,805 毫秒时的峰值性能为 10.9 IOPS,然后在最后受到轻微打击。 在 FCP 模式下,它记录了 169,543 IOPS 和 10.4 毫秒的延迟。
切换到顺序工作,特别是我们的 64K 工作负载,我们看到 A250 NVMe-oF 保持在 1 毫秒以下,直到大约 110K IOPS 或大约 6.8GB/s,并且在 110,100ms 的延迟下看到 6.9 IOPS 或 3.25GB/s 的峰值。 尽管 FCP 模式在 114,060 IOPS (7.13GB/s) 时显示出更好的峰值吞吐量,但它的峰值延迟要高得多,为 7.8 毫秒。
在 64K 写入中,A250 NVMe-oF 的峰值约为 47K IOPS 或约 3.04GB/s,延迟为 5.2ms。 FCP 模式的峰值为 41K IOPS 或约 2.6GB/s,延迟更高,为 24 毫秒(在性能略有下降和延迟上升之前)。
接下来,我们继续进行 SQL 测试,SQL、SQL 90-10 和 SQL 80-20,其中 NVMe-oF 模式下的 AFF A250 比 FCP 模式有显着改进。 在 SQL 中,A250 (NVMe-oF) 保持在 1 毫秒以下,直到它突破 350K,然后在 416,617 毫秒时达到 2.10 IOPS 的峰值。 在 FCP 模式下,它的峰值为 348,403 IOPS,延迟为 2.4 毫秒,然后略有下降。
在 SQL 90-10 中,A250 (NVMe-oF) 在接近 350K 标记之前具有亚毫秒级延迟,在 388,589 毫秒时达到 2.3 IOPS 的峰值。 在 FCP 模式下,A250 在达到约 270K IOPS 之前具有亚毫秒级延迟,并在 321,604 IOPS 时达到峰值,延迟不到 3 毫秒。
在 SQL 80-20 中,A250 (NVMe-oF) 保持在 1 毫秒以下,直到大约 270K IOPS,在 314,616 毫秒时达到 2.96 IOPS 的峰值。 查看 FCP 模式下的 A250,它保持在 1 毫秒以下,直到大约 200K IOPS,然后以 263,157 毫秒的延迟达到 3.6 IOPS 的峰值。
下一批测试是我们的 Oracle 测试:Oracle、Oracle 90-10 和 Oracle 80-20。 同样,NVMe-oF 始终表现出更好的性能。 在 Oracle 工作负载中,它为我们提供了亚毫秒级延迟,直到大约 230K IOPS,然后以略高于 329,112 毫秒的延迟达到 3 IOPS 的峰值。 在 FCP 模式下,A250 为我们提供了亚毫秒延迟,直到大约 200K IOPS,然后以 263,802 IOPS 的峰值继续超过 4.5 毫秒的延迟。
对于 Oracle 90-10,A250 保持在 1 毫秒以下,直到大约 370K IOPS,然后以 407,087 毫秒的延迟达到 1.43 IOPS 的峰值。 在 FCP 模式下,它的执行时间不到 1 毫秒,直到大约 275K IOPS,然后以 333,108 IOPS 达到峰值,延迟为 1.8 毫秒。
Oracle 80-20 的 A250 (NVMe-oF) 峰值为 335,577 IOPS,延迟为 1.75 毫秒,而 FCP 模式的峰值为 273,948 IOPS,延迟为 2.1 毫秒。
接下来,我们切换到我们的 VDI 克隆测试,完整和链接。 对于 VDI 完整克隆 (FC) 启动,NetApp AFF A250 (NVMe-oF) 达到了 240K,延迟没有超过 1 毫秒,同时在 263,683 毫秒达到 3.23 IOPS 的峰值,然后在最后达到性能峰值。 在 FCP 模式下,A250 以不到 200 毫秒的延迟达到 1K IOPS,然后以略高于 229,571 毫秒的延迟达到 3 IOPS 的峰值,然后略有下降。
在 VDI FC Initial Login 中,A250 (NVMe-oF) 在超过 60K 标记后具有亚毫秒级延迟性能,峰值为 98,897 IOPS,延迟为 8.42 毫秒(同样,最后性能达到峰值)。 在 FCP 模式下,A250 在超过 55 毫秒之前达到 1K IOPS,然后以 90,270 IOPS 的峰值达到 9.3 毫秒的延迟。
VDI FC Monday Login 看到 A250 的延迟低于 1 毫秒,直到大约 68K IOPS,峰值为 103,184 IOPS,延迟不到 5 毫秒,然后再次达到峰值。 在 FCP 模式下,A250 保持在 1 毫秒以下,直到再次达到约 55K IOPS,然后达到 93,574 IOPS 的峰值和 5.1 毫秒的延迟。
现在我们继续链接克隆。 在 VDI LC Boot 中,两种模式都显示出非常相似的性能,FCP 模式实际上以 151,953 IOPS(3.2 毫秒延迟)的更高 IOPS 达到峰值。 在 NVMe-oF 中,A250 达到 146,660 IOPS 的峰值,但延迟为 3.09 毫秒。
使用 VDI LC 初始登录时,A250 (NVMe-oF) 在超过 50K IOPS 之前具有亚毫秒级延迟,在延迟 76,386 毫秒时达到 3.05 IOPS 的峰值,最后性能略有下降。 在 FCP 中,A260 具有亚毫秒延迟,直到大约 40K IOPS,然后达到峰值 67,557 IOPS 和 3.7 毫秒的延迟。
最后,借助 VDI LC Monday Login,A250 在延迟超过 48 毫秒之前达到了大约 1K IOPS。 在性能下降之前,它以 75,259 毫秒的延迟达到 6.67 IOPS 的峰值。 在 FCP 中,A250 在超过 40 毫秒之前几乎达到了 1K IOPS,峰值为 68,751 IOPS,延迟为 7.3 毫秒。
结语
NetApp AFF A250 作为入门级企业端到端 NVMe 系统大放异彩,适用于希望获得出色性能和整合数据的中型企业。 系统本身可以在前端嵌入 NVMe SSD,在后端嵌入 NVMe over FC 主机连接,我们在本次审查中采用了后者。 客户肯定会以入门级价格获得性能强大的产品,并从他们之前的型号 AFF A220 获得巨大升级。 这并不奇怪,因为众所周知,NetApp 非常了解 IT 行业的当前需求。 这使他们能够为其系统的后续版本提供出色的系统升级。
为了提高性能,我们同时运行了应用程序工作负载分析和 VDBench 工作负载。 如上所示,与传统的 SAN FCP(光纤通道协议)模式相比,NVMe-oF 模式显示出显着的性能提升。
在我们的应用程序工作负载分析中,A250 (NVMe-oF) 的总得分为 3.5 个虚拟机为 4 毫秒,25.4 个虚拟机为 8 毫秒。 相比之下,FCP 模式的总得分为 22.75 毫秒(8 个虚拟机)和 8.5 毫秒(4 个虚拟机)。
借助 Sysbench,A250 (NVMe-oF) 同样令人印象深刻,15,916VM 的总 TPS 为 8 TPS,17,537VM 的总 TPS 为 16 TPS,而 FCP 模式分别为 13,135 TPS 和 16,149 TPS。 Sysbench 平均延迟在 16.09M 和 8VM 中的总得分分别为 29.23 毫秒和 16 毫秒,而在 FCP 模式下分别为 19.49 毫秒和 31.72 毫秒。 在最坏情况下的延迟情况下,我们看到 A250 在 38.1 个虚拟机中的总延迟为 8 毫秒,在 72.78 个虚拟机中的总延迟为 16 毫秒,而 FCP 为 51.61 毫秒(8 个虚拟机)和 85.77 毫秒(16 个虚拟机)。
借助 VDBench,NetApp AFF A250 在我们的性能配置文件中显着降低了延迟。 NetApp AFF A250 (NVMe-oF) 的亮点包括 788K 读取中的 4K IOPS、183K 写入中的 4K IOPS、6.8K 读取中的 64GB/s 和 3.04K 写入中的 64GB/s。 在我们的 SQL 测试中,我们看到了 417K IOPS 的峰值,SQL 389-90 中的 10K IOPS 和 SQL 315-80 中的 20K IOPS。 通过我们的 Oracle 测试,我们看到了 329K IOPS 的峰值性能,Oracle 407-90 中的 10K IOPS 和 Oracle 335-80 中的 20K IOPS。 在我们的 VDI 克隆测试中,我们看到了 264K IOPS 引导的完整克隆结果、初始登录中的 99K IOPS 和星期一登录中的 103K IOPS。 对于链接克隆,我们在启动时看到了 147K IOPS 的峰值,在初始登录时看到了 76K IOPS 的峰值,在星期一登录时看到了 75K IOPS 的峰值。
利用 NVMe over Fibre Channel 几乎可以在您可能拥有的每个工作负载中产生更好的性能,如果您有支持硬件,就没有理由不实施它。 NetApp 甚至不收取额外费用来启用这些功能。 最后,NVMe-oF 是 NetApp 客户的免费性能奖励,使 NVMe-oF 成为 ONTAP AFA 用户的巨大胜利。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | TikTok | RSS订阅