首頁 企業 NetApp NVMe-oF 評論 (A250)

NetApp NVMe-oF 評論 (A250)

by 萊爾·史密斯
Netapp AFF-250 驅動器

NetApp AFF A250 是一款入門級端到端 NVMe 企業陣列。 A250 在後端嵌入了 NVMe SSD,在前端嵌入了 NVMe over FC 主機連接,以入門級價格提供了令人難以置信的性能。 這使中小型企業能夠在邊緣充分利用其工作負載。

NetApp AFF A250 是一款入門級端到端 NVMe 企業陣列。 A250 在後端嵌入了 NVMe SSD,在前端嵌入了 NVMe over FC 主機連接,以入門級價格提供了令人難以置信的性能。 這使中小型企業能夠在邊緣充分利用其工作負載。

NetApp NVMe-oF

與 AFF A200 相比,它的性能提高了 45%,存儲效率提高了 33%,這在我們的應用程序中很容易得到證明 AFF A250 初評. 我們的基準測試結果只強調了這一點,展示了與上一代模型相比的巨大進步。 這當然不足為奇,因為我們過去測試過的幾個 NetApp 系統獲得了我們的編輯選擇獎。

此外,在用更適合快速變化的 IT 環境的模型替換舊模型時,NetApp 是最一致的公司之一。 我們一直期待在我們的實驗室中獲得他們的新系統之一,並期待使用 NVMe over Fibre Channel (NVMe-oF) 獲得更好的性能配置文件,我們將在本次審查中對此進行研究。

NetApp NVMe-oF – AFF A250 組件

為了達到這一新的性能標準,NetApp 為 AFF A250 配備了 24 核 CPU 和每個 HA 對 128GB 內存,以及該公司的 NS224 存儲架架構。 內部存儲最多支持 24 個 NVMe SSD,但用戶可以將其設置為 8、12 或 24 個驅動器配置。

每個配置的內部 SSD 最高可達 15.3TB,或者每個控制器有 24 個外部 30.2TB SSD。 此外,A250 還配備了兩個用於 HA 和集群互連的 25Gb 以太網端口、兩個用於主機連接的 10Gbase-T 端口以及兩個用於 I/O 擴展的夾層插槽。 A250 還支持 SAS 驅動器,每個驅動器支持高達 30.6TB。

如需詳細了解其功能、潛在用例和優勢,我們鼓勵您閱讀我們之前的文章 NetApp AFF A250 評論。

ONTAP 9.9.1

在軟件方面,NetApp 現在提供帶有 ONTAP 250 的 AFF A9.9.1。 我們之前對 AFF A250 的評論展示了 9.8 版,這是一個專注於簡化用戶體驗的更新。 最新版本側重於對系統管理器、SAN、數據保護等的增強和補充。

重點包括:

  • ONTAP 現在還支持多達 12 個節點,與以前的版本相比有了很大的進步,在以前的版本中,ASA 只能是雙節點集群。 這意味著性能和容量的更多橫向擴展。
  • 最新版本的系統管理器允許用戶在配置新卷時手動選擇物理存儲層。 但是,您仍然可以選擇允許 ONTAP 根據平衡放置邏輯自動進行選擇。
  • 其他更新包括修改 GUI,這包括稍微更改界面、添加新功能並恢復之前刪除的一些缺失功能。 例如,儀表板上的 EMS 事件現在會在用戶首次登錄後顯示。

NetApp AFF A250 和基於光纖通道的 NVMe (NVMe-oF)

9.9.1 版本還有一系列其他更新; 然而,對我們來說最重要的(無論如何在本次審查中)是所有 SAN 陣列 (ASA) 現在都可以使用 NVMe over Fibre Channel (NVMe-oF)。

當我們之前查看 NetApp AFF A250 時,我們使用傳統的 FC SAN 模式和 12 個 1.92TB NVMe SSD(具有兩個 3TB 存儲池的 RAID-DP)測試了系統。 因此,對於本次審查,我們將以 NVMe-oF 模式查看系統。

NVMe-oF 旨在增強現有 SAN 工作負載,對於那些希望真正利用 NVMe 的人來說無疑是最佳選擇,尤其是在整體性能和應用程序響應時間方面。

NVMe-oF 協議規範於 2016 年推出,從本質上將 NVMe 的快速性能從存儲陣列控制器擴展到通過以太網、光纖通道、RoCE 或 InfiniBand 的結構。 該協議利用結構作為傳輸映射,而不是端點之間沒有共享內存的 PCIe 總線。 為了更詳細地了解,我們深入研究了 什麼是 NVMe-oF 去年夏天。

NetApp AFF A250 規格

最大橫向擴展 2–24 個節點(12 個 HA 對)
最大 SSD 48
最大有效容量 1.1PB
每系統規格(主動-主動雙控制器)
控制器外形 2U
PCIe 擴展槽 4
FC 目標端口(32Gb 自動量程) 截至到16
100GbE 端口(40GbE 自動量程) 4
25GbE 端口(10GbE 自動量程) 截至到16
10Gbase-T(1GbE 自動量程) 4
12Gb/6Gb SAS 端口 4
支持存儲網絡 NVMe/FC、FC、iSCSI、NFS、pNFS、CIFS/SMB、Amazon S3
作業系統版本 ONTAP 9.9.1 或更高版本
貨架和媒體 NS224(2U;24 個驅動器,2.5 英寸 SFF NVMe); DS224C(2U;24 個驅動器,2.5 英寸 SFF); DS2246(2U;24 個驅動器,2.5 英寸 SFF)

NetApp AFF A250 性能 (NVMe-oF)

我們的 A250 配置包括 12 個 1.92TB NVMe SSD 和 NetApp ONTAP 9.9.1。 該陣列由 NetApp 配置為具有兩個 3TB 存儲池的 RAID-DP。 我們對本次評測的測試是在 NVMe-oF 模式下進行的。 使用跨兩個的雙交換機光纖通道結構提供連接 Brocade G620 32Gb 交換機.

SQL Server 性能

StorageReview 的 Microsoft SQL Server OLTP 測試協議採用事務處理性能委員會的基準 C (TPC-C) 的最新草案,這是一種模擬複雜應用程序環境中活動的在線事務處理基準。 TPC-C 基準比綜合性能基準更接近於衡量數據庫環境中存儲基礎設施的性能優勢和瓶頸。

每個 SQL Server VM 都配置有兩個虛擬磁盤:100GB 卷用於啟動,500GB 卷用於數據庫和日誌文件。 從系統資源的角度來看,我們為每個虛擬機配置了 16 個 vCPU、64GB DRAM,並利用了 LSI Logic SAS SCSI 控制器。 雖然我們之前測試的 Sysbench 工作負載在存儲 I/O 和容量方面使平台飽和,但 SQL 測試尋找延遲性能。

此測試使用在 Windows Server 2014 R2012 來賓虛擬機上運行的 SQL Server 2,並由戴爾的數據庫基準工廠進行壓力測試。 雖然我們對該基準測試的傳統用法是在本地或共享存儲上測試 3,000 規模的大型數據庫,但在本次迭代中,我們專注於在我們的服務器上均勻分佈四個 1,500 規模的數據庫。

SQL Server 測試配置(每個虛擬機)

  • 在Windows Server 2012 R2
  • 存儲空間:分配 600GB,使用 500GB
  • SQL Server 2014的
    • 數據庫大小:1,500 規模
    • 虛擬客戶端負載:15,000
    • 內存緩衝區:48GB
  • 測試時長:3 小時
    • 2.5 小時預處理
    • 30分鐘採樣期

對於 SQL Server 延遲,A250 (NVMe-oF) 的總得分為 3.5 個虛擬機的 4 毫秒和 25.4 個虛擬機的 8 毫秒。 在 FCP 模式下,A250 的總成績為 22.75 毫秒(8 個虛擬機)和 8.5 毫秒(4 個虛擬機)。 與上一代 (A250) 相比,您可以看到 A200 的兩種模式都有巨大改進,後者在 25VMs 下測量為 4ms。

NetApp AFF A250 NVMe-oF SQL Server 平均延遲性能

Sysbench MySQL 性能

我們的下一個存儲應用程序基準測試包括通過 SysBench 測量的 Percona MySQL OLTP 數據庫。 該測試測量平均 TPS(每秒事務數)、平均延遲和平均 99% 延遲。

每個 Sysbench VM 配置了三個虛擬磁盤:一個用於啟動 (~92GB),一個用於預構建數據庫 (~447GB),第三個用於測試中的數據庫 (270GB)。 從系統資源的角度來看,我們為每個虛擬機配置了 16 個 vCPU、60GB DRAM,並利用了 LSI Logic SAS SCSI 控制器。

Sysbench 測試配置(每個虛擬機)

  • 中央操作系統 6.3 64 位
  • Percona XtraDB 5.5.30-rel30.1
  • 桌子:100
    • 大小:10,000,000
    • 線程:32 數據庫
  • 內存緩衝區:24GB
  • 測試時長:3 小時
    • 2 小時預處理 32 個線程
    • 1 小時 32 個線程

使用 Sysbench OLTP,8 個虛擬機 A250 (NVMe-oF) 的總得分為 15,916 TPS,而 16 個虛擬機的得分為 17,537 TPS。 在 FCP 模式下,13,135 個虛擬機和 16,149 個虛擬機的總得分分別為 8 TPS 和 16 TPS。 A200 的性能只有一半,8.871 個虛擬機和 9,035 個虛擬機分別為 8 TPS 和 16 TPS。

 

對於 Sysbench 平均延遲,8VM A250 (NVMe-oF) 的總得分為 16.09ms,而 16VM 為 29.23ms。 在 FCP 模式下,19.49VM 和 31.72VM 的合計時間分別為 8ms 和 16ms。 再一次,與上一個相比,性能提升非常顯著,因為 A200 發布了 28.86 毫秒(8 個虛擬機)和 56.88 毫秒(16 個虛擬機)。

對於我們最壞情況下的延遲(第 99 個百分位數),NVMe-oF 的總延遲為 38.1 毫秒(8 個虛擬機)和 72.78 毫秒(16 個虛擬機),而 FCP 顯示為 51.61 毫秒(8 個虛擬機)和 85.77 毫秒(16 個虛擬機)。 毫不奇怪,這是對 A200 的巨大改進,A84.93 分別為 152.91 個虛擬機和 8 個虛擬機發布了 16 毫秒和 XNUMX 毫秒。

VDBench 工作負載分析

在對存儲陣列進行基準測試時,應用程序測試是最好的,綜合測試排在第二位。 雖然不能完美代表實際工作負載,但綜合測試確實有助於為具有可重複性因素的存儲設備建立基線,從而可以輕鬆地在競爭解決方案之間進行同類比較。

這些工作負載提供了一系列不同的測試配置文件,包括“四個角”測試、常見的數據庫傳輸大小測試,以及來自不同 VDI 環境的跟踪捕獲。 所有這些測試都利用通用的 vdBench 工作負載生成器,以及一個腳本引擎來自動化和捕獲大型計算測試集群的結果。 這使我們能夠在各種存儲設備上重複相同的工作負載,包括閃存陣列和單個存儲設備。

簡介:

  • 4K 隨機讀取:100% 讀取,128 個線程,0-120% 重複率
  • 4K 隨機寫入:100% 寫入,64 線程,0-120% iorate
  • 64K 順序讀取:100% 讀取,16 個線程,0-120% 迭代
  • 64K 順序寫入:100% 寫入,8 個線程,0-120% 迭代
  • 綜合數據庫:SQL 和 Oracle
  • VDI 完整克隆和鏈接克隆跟踪

通過隨機 4K 讀取,NetApp AFF A250 NVMe-oF 顯示出比 FCP 模式有顯著改進,在超過 700K 時出現亞毫秒延遲,峰值為 787,910 IOPS,延遲為 3.58 毫秒。 在 FCP 模式下,A250 在超過 500K 之前表現出亞毫秒級延遲,並以 594,388 IOPS 和 6.9 毫秒的延遲達到峰值。

NetApp AFF A250 NVMe-oF 隨機讀取 4K 性能

隨機 4K 寫入看到的結果更接近一點。 在這裡,通過 NVMe-oF 的 A250 在 183,805 毫秒時的峰值性能為 10.9 IOPS,然後在最後受到輕微打擊。 在 FCP 模式下,它記錄了 169,543 IOPS 和 10.4 毫秒的延遲。

NetApp AFF A250 NVMe-oF 隨機寫入 4K 性能

切換到順序工作,特別是我們的 64K 工作負載,我們看到 A250 NVMe-oF 保持在 1 毫秒以下,直到大約 110K IOPS 或大約 6.8GB/s,並且在 110,100ms 的延遲下看到 6.9 IOPS 或 3.25GB/s 的峰值。 儘管 FCP 模式在 114,060 IOPS (7.13GB/s) 時顯示出更好的峰值吞吐量,但它的峰值延遲要高得多,為 7.8 毫秒。

NetApp AFF A250 NVMe-oF 順序讀取 64K 性能

在 64K 寫入中,A250 NVMe-oF 的峰值約為 47K IOPS 或約 3.04GB/s,延遲為 5.2ms。 FCP 模式的峰值為 41K IOPS 或約 2.6GB/s,延遲更高,為 24 毫秒(在性能略有下降和延遲上升之前)。

NetApp AFF A250 NVMe-oF 順序寫入 64K 性能

接下來,我們繼續進行 SQL 測試,SQL、SQL 90-10 和 SQL 80-20,其中 NVMe-oF 模式下的 AFF A250 比 FCP 模式有顯著改進。 在 SQL 中,A250 (NVMe-oF) 保持在 1 毫秒以下,直到它突破 350K,然後在 416,617 毫秒時達到 2.10 IOPS 的峰值。 在 FCP 模式下,它的峰值為 348,403 IOPS,延遲為 2.4 毫秒,然後略有下降。

NetApp AFF A250 NVMe-oF SQL 工作負載性能

在 SQL 90-10 中,A250 (NVMe-oF) 在接近 350K 標記之前具有亞毫秒級延遲,在 388,589 毫秒時達到 2.3 IOPS 的峰值。 在 FCP 模式下,A250 在達到約 270K IOPS 之前具有亞毫秒級延遲,並在 321,604 IOPS 時達到峰值,延遲不到 3 毫秒。

在 SQL 80-20 中,A250 (NVMe-oF) 保持在 1 毫秒以下,直到大約 270K IOPS,在 314,616 毫秒時達到 2.96 IOPS 的峰值。 查看 FCP 模式下的 A250,它保持在 1 毫秒以下,直到大約 200K IOPS,然後以 263,157 毫秒的延遲達到 3.6 IOPS 的峰值。

下一批測試是我們的 Oracle 測試:Oracle、Oracle 90-10 和 Oracle 80-20。 同樣,NVMe-oF 始終表現出更好的性能。 在 Oracle 工作負載中,它為我們提供了亞毫秒級延遲,直到大約 230K IOPS,然後以略高於 329,112 毫秒的延遲達到 3 IOPS 的峰值。 在 FCP 模式下,A250 為我們提供了亞毫秒延遲,直到大約 200K IOPS,然後以 263,802 IOPS 的峰值繼續超過 4.5 毫秒的延遲。

NetApp AFF A250 NVMe-oF Oracle 工作負載性能 對於 Oracle 90-10,A250 保持在 1 毫秒以下,直到大約 370K IOPS,然後以 407,087 毫秒的延遲達到 1.43 IOPS 的峰值。 在 FCP 模式下,它的執行時間不到 1 毫秒,直到大約 275K IOPS,然後以 333,108 IOPS 達到峰值,延遲為 1.8 毫秒。

Oracle 80-20 的 A250 (NVMe-oF) 峰值為 335,577 IOPS,延遲為 1.75 毫秒,而 FCP 模式的峰值為 273,948 IOPS,延遲為 2.1 毫秒。

接下來,我們切換到我們的 VDI 克隆測試,完整和鏈接。 對於 VDI 完整克隆 (FC) 啟動,NetApp AFF A250 (NVMe-oF) 達到了 240K,延遲沒有超過 1 毫秒,同時在 263,683 毫秒達到 3.23 IOPS 的峰值,然後在最後達到性能峰值。 在 FCP 模式下,A250 以不到 200 毫秒的延遲達到 1K IOPS,然後以略高於 229,571 毫秒的延遲達到 3 IOPS 的峰值,然後略有下降。

在 VDI FC 初始登錄中,A250 (NVMe-oF) 在超過 60K 標記後具有亞毫秒級的延遲性能,峰值為 98,897 IOPS,延遲為 8.42 毫秒(同樣,最後性能達到峰值)。 在 FCP 模式下,A250 在超過 55 毫秒之前達到 1K IOPS,然後以 90,270 IOPS 的峰值達到 9.3 毫秒的延遲。

VDI FC Monday Login 看到 A250 的延遲低於 1 毫秒,直到大約 68K IOPS,峰值為 103,184 IOPS,延遲不到 5 毫秒,然後再次達到峰值。 在 FCP 模式下,A250 保持在 1 毫秒以下,直到再次達到約 55K IOPS,然後達到 93,574 IOPS 的峰值和 5.1 毫秒的延遲。

現在我們繼續鏈接克隆。 在 VDI LC Boot 中,兩種模式都顯示出非常相似的性能,FCP 模式實際上以 151,953 IOPS(3.2 毫秒延遲)的更高 IOPS 達到峰值。 在 NVMe-oF 中,A250 達到 146,660 IOPS 的峰值,但延遲為 3.09 毫秒。

使用 VDI LC 初始登錄時,A250 (NVMe-oF) 在超過 50K IOPS 之前具有亞毫秒級延遲,在 76,386 毫秒延遲時達到 3.05 IOPS 的峰值,最後性能略有下降。 在 FCP 中,A260 具有亞毫秒延遲,直到大約 40K IOPS,然後達到峰值 67,557 IOPS 和 3.7 毫秒的延遲。

最後,借助 VDI LC Monday Login,A250 在延遲超過 48 毫秒之前達到了大約 1K IOPS。 在性能下降之前,它以 75,259 毫秒的延遲達到 6.67 IOPS 的峰值。 在 FCP 中,A250 在超過 40 毫秒之前幾乎達到了 1K IOPS,峰值為 68,751 IOPS,延遲為 7.3 毫秒。

結論

NetApp AFF A250 作為入門級企業端到端 NVMe 系統大放異彩,適用於希望獲得出色性能和整合數據的中型企業。 系統本身可以在前端嵌入 NVMe SSD,在後端嵌入 NVMe over FC 主機連接,我們在本次審查中採用了後者。 客戶肯定會以入門級價格獲得性能強大的產品,並從他們之前的型號 AFF A220 獲得巨大升級。 這並不奇怪,因為眾所周知,NetApp 非常了解 IT 行業的當前需求。 這使他們能夠為其係統的後續版本提供出色的系統升級。

NetApp AFF A250 控制器

為了提高性能,我們同時運行了應用程序工作負載分析和 VDBench 工作負載。 如上所示,與傳統的 SAN FCP(光纖通道協議)模式相比,NVMe-oF 模式顯示出顯著的性能提升。

在我們的應用程序工作負載分析中,A250 (NVMe-oF) 的總得分為 3.5 個虛擬機為 4 毫秒,25.4 個虛擬機為 8 毫秒。 相比之下,FCP 模式的總得分為 22.75 毫秒(8 個虛擬機)和 8.5 毫秒(4 個虛擬機)。

借助 Sysbench,A250 (NVMe-oF) 同樣令人印象深刻,15,916VM 的總 TPS 為 8 TPS,17,537VM 的總 TPS 為 16 TPS,而 FCP 模式分別為 13,135 TPS 和 16,149 TPS。 Sysbench 平均延遲在 16.09M 和 8VM 中的總分分別為 29.23 毫秒和 16 毫秒,而在 FCP 模式下分別為 19.49 毫秒和 31.72 毫秒。 在最壞情況下的延遲情況下,我們看到 A250 在 38.1 個虛擬機中的總延遲為 8 毫秒,在 72.78 個虛擬機中的總延遲為 16 毫秒,而 FCP 為 51.61 毫秒(8 個虛擬機)和 85.77 毫秒(16 個虛擬機)。

借助 VDBench,NetApp AFF A250 在我們的性能配置文件中顯著降低了延遲。 NetApp AFF A250 (NVMe-oF) 的亮點包括 788K 讀取 4K IOPS、183K 寫入 4K IOPS、6.8K 讀取 64GB/s 和 3.04K 寫入 64GB/s。 在我們的 SQL 測試中,我們看到了 417K IOPS 的峰值,SQL 389-90 中的 10K IOPS 和 SQL 315-80 中的 20K IOPS。 通過我們的 Oracle 測試,我們看到了 329K IOPS 的峰值性能,Oracle 407-90 中的 10K IOPS 和 Oracle 335-80 中的 20K IOPS。 在我們的 VDI 克隆測試中,我們看到了 264K IOPS 引導的完整克隆結果、初始登錄中的 99K IOPS 和星期一登錄中的 103K IOPS。 對於鏈接克隆,我們在啟動時看到了 147K IOPS 的峰值,在初始登錄時看到了 76K IOPS 的峰值,在星期一登錄時看到了 75K IOPS 的峰值。

利用 NVMe over Fibre Channel 幾乎可以在您可能擁有的每個工作負載中產生更好的性能,如果您有支持硬件,就沒有理由不實施它。 NetApp 甚至不收取額外費用來啟用這些功能。 最後,NVMe-oF 是 NetApp 客戶的免費性能獎勵,使 NVMe-oF 成為 ONTAP AFA 用戶的巨大勝利。

NetApp AFF A 系列

參與 StorageReview

電子報 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | 的TikTok | RSS訂閱