EchoStreams OSS1A 是一個 1U 機架系統,設計用作靈活的設備服務器平台,最引人注目的是其僅 21 英寸的深度。 OSS1A 採用雙處理器 Intel C602A 芯片組,支持 Intel Xeon E5-2600 V2 CPU 和高達 384GB 的 RAM,以提供在空間受限和現場部署中處理各種任務所需的馬力。
EchoStreams OSS1A 是一個 1U 機架系統,設計用作靈活的設備服務器平台,最引人注目的是其僅 21 英寸的深度。 OSS1A 採用雙處理器 Intel C602A 芯片組,支持 Intel Xeon E5-2600 V2 CPU 和高達 384GB 的 RAM,以提供在空間受限和現場部署中處理各種任務所需的馬力。
我們對 OSS1A 的審查不僅基於其在我們的企業性能基準測試套件中的表現,還基於我們自己使用 OSS1A 作為其一部分的經驗 StorageReview 現場測試工具包. 我們之所以選擇 OSS1A 用於現場基準測試,是因為服務器佔地面積小,而且它有能力執行我們實驗室基準測試環境的許多功能,而不會成為瓶頸。
EchoStreams OSS1A 提供三種配置,具有不同的內部存儲選項,除了可選的內部 SSD 托架外還可以使用:兩個前置 15 毫米 2.5 英寸托架; 兩個內部 15mm 2.5 英寸驅動器托架; 四個前置 7 毫米 2.5 英寸托架; 或兩個帶有 LCD 顯示面板的內部 2.5 英寸托架。 即將推出的 Haswell 版本也在開發中,它將提供 500W 電源來處理最高 160W TDP 處理器。 Haswell版本還將支持兩張FHHL Gen3 X16卡,或者一張FHHL加一個I/O模塊,支持雙10Gb、40Gb或IB,外加一對SFF8644端口,用於板載SAS3008的SAS擴展。 此功能將使該平台成為連接到 EchoStreams eDrawer2J(4060U4bay 雙 60G 擴展器 JBOD)的存儲頭節點(12 個 HA)的理想平台,運行 NexantaStor 或其他軟件定義的存儲堆棧。 在該配置中,前面的四個 SSD 可用作緩存。
我們的評測單元具有兩個前置 2.5 英寸托架和兩個 Intel Xeon E5-2697 v2 處理器(2.7GHz、30MB 緩存和 12 核)的外形。 我們還為服務器配置了 16GB (2x 8GB) 1333MHz 的 DDR3,帶有註冊的 RDIMM 和 100GB 美光 RealSSD P400e 作為引導驅動器。 通常,我們的 EchoStreams OSS1A 配置有兩個 Emulex LightPulse LPe16202 Gen 5 光纖通道 HBA(8GFC、16GFC 或 10GbE FCoE)PCIe 3.0 雙端口 CFA 或兩個 Mellanox ConnectX-3 雙端口 10GbE 以太網 PCIe 3.0 NIC。 當服務器用於驅動基準測試時,這些組件會根據被測試的設備和所需的工作負載進行交換。
Echostreams OSS1A 規格
- 支持的 CPU:雙路 2011 Intel Xeon E5 2600 V2 (Ivy Bridge) 處理器
- 芯片組:Intel C602A
- 支持的內存:高達 384GB DDR3 800/1066/1333/1600 RDIMM/ECC UDIMM/Non-ECC UDIMM/LR-DIMM
- I / O接口:
- 2 個後置 USB
- 1 個前置 USB
- 1 個 VGA 端口
- 4 個千兆以太網
- 1 x MGMT 局域網
- 擴展槽:1x PCIe Gen3 X16 FHHL & 1x PCIe Gen3 X8 LP 插槽
- 貯存:
- 2 x 2.5″ 熱插拔托架或
- 4 x 2.5″ 7mm 熱插拔托架或
- 2 個內部 2.5 英寸托架。
- 服務器管理:帶有 iKVM 的 IPMI
- 冷卻:3x 97mm 鼓風機
- 前面板顯示屏:
- 1 x 電源開/關開關和 LED
- 1 x 定位開關和 LED
- 1 個複位開關
- 1 x 系統警告 LED
- 4 x 局域網 LED
- 電源:400W高效1+1冗餘電源
- 毛重:35 磅
- 外形尺寸:
- 系統:21″ x 17″ x 1.74″
- 包裝:36” x 24.5” x 10.5”(長x寬x高)
- 工作環境:
- 工作溫度:0°C至35°C
- 非工作溫度:-20°C 至 70°C
- 濕度:5% 至 95% 非冷凝
- 合規性:符合 CE、FCC A 類、RoHS 6/6 標準
- 兼容操作系統:Linux RedHat Enterprise 6 64 位、Suse Linux Enterprise Server 11.2 64 位、VMWare ESX 4.1/ESXi4.1、Windows 2008 R2、Windows Server 2012、CentOS 5.6、Ubuntu 11.10
構建和設計
我們的 OSS1A 審查單元包含兩個可從前面訪問的 2.5 英寸驅動器托架,這些驅動器托架嵌入可拆卸的鋁製邊框中。 前端還提供了對一個 USB 端口的訪問,以及一個定位器開關和 LED、電源開關和 LED、一個複位開關、一個系統狀態 LED 以及對應於系統背面集成以太網端口的四個 LED。
升高的風扇排氣位於前擋板後面,緊鄰雙 CPU 和 DDR3 RAM 的前面。 EchoStreams OSS1A 在系統右側以 400+1 熱插拔方式整合了一個雙 1W 電源。 我們為該服務器配置了 100GB Micron RealSSD P400e 引導驅動器。
後面板包含 4 個 GbE 端口(包括一個用於管理的端口)、2 個 USB 端口、一個 VGA 端口和擴展卡接口。
測試背景和存儲介質
我們發布一個 我們實驗室環境的清單,安 實驗室網絡能力概述,以及有關我們測試協議的其他詳細信息,以便管理員和負責設備採購的人員可以公平地衡量我們取得公佈結果的條件。 為了保持我們的獨立性,我們的評論都不是由我們正在測試的設備製造商支付或管理的。
在我們的標準審查流程中,供應商向我們運送了被審查的平台,我們將其安裝在 StorageReview Enterprise 測試實驗室中以進行性能基準測試。 然而,對於某些平台,這種方法存在尺寸、複雜性和其他後勤障礙,這就是 EchoStreams OSS1A 發揮作用的時候。
我們最近對 EMC VNX5200 平台的審查 是要求我們帶著 OSS1A 前往 EMC 實驗室以進行 iSCSI 和 FC 性能測試的情況示例。 EMC 提供了一個 8Gb FC 交換機,而我們帶來了一個 Mellanox 10/40Gb SX1024 交換機用於以太網連接。 下面的性能部分基於使用驅動工作負載的 OSS1A 和作為存儲陣列的 VNX5200 進行的基準測試。
- 2 個 Intel Xeon E5-2697 v2(2.7GHz,30MB 緩存,12 核)
- 英特爾 C602A 芯片組
- 內存 – 16GB (2x 8GB) 1333MHz DDR3 Registered RDIMM
- Windows Server標準2012 R2的
- 引導固態硬盤:100GB 美光 RealSSD P400e
- 2 個 Mellanox ConnectX-3 雙端口 10GbE NIC
- 2 個 Emulex LightPulse LPe16002 Gen 5 光纖通道(8GFC、16GFC)PCIe 3.0 雙端口 HBA
企業綜合工作負載分析
在啟動每個 fio 綜合基準,我們的實驗室在 16 個線程的重負載下將設備預處理到穩定狀態,每個線程有 16 個未完成隊列。 然後使用多個線程/隊列深度配置文件以設定的時間間隔測試存儲,以顯示輕度和重度使用情況下的性能。
預處理和初級穩態測試:
- 吞吐量(讀+寫 IOPS 聚合)
- 平均延遲(讀+寫延遲一起平均)
- 最大延遲(峰值讀取或寫入延遲)
- 延遲標準偏差(讀+寫標準偏差一起平均)
該綜合分析包含四種配置文件,這些配置文件廣泛用於製造商規範和基準測試:
- 4k 隨機 – 100% 讀取和 100% 寫入
- 8k 順序 – 100% 讀取和 100% 寫入
- 8k 隨機 – 70% 讀取/30% 寫入
- 128k 順序 – 100% 讀取和 100% 寫入
當配置有 SSD 並由 EchoStreams OSS1A 通過光纖通道訪問時,VNX5200 發布了 80,472IOPS 讀取和 33,527IOPS 寫入。 在我們的 iSCSI 塊級測試中使用 RAID10 中的相同 SSD,VNX5200 實現了 37,421IOPS 讀取和 22,309IOPS 寫入。 使用光纖通道連接切換到 RAID15 中的 5K HDD 顯示 12,054IOPS 讀取和 3,148 IOPS 寫入,而 10K HDD 配置達到 7,688IOPS 讀取和 2,835IOPS 寫入。 在相同連接類型的 RAID7 配置中使用 6K HDD 時,EchoStreams OSS1A 和 VNX5200 讀取 4,390IOPS,寫入 1,068IOPS。
當在 RAID10 中配置 SSD 並使用光纖通道連接時,此配置顯示讀取時間為 3.18 毫秒,寫入時間為 7.63 毫秒。 在我們的 iSCSI 塊級測試中使用相同的 SSD,該系統擁有 6.84 毫秒的讀取時間和 11.47 毫秒的寫入時間。 使用光纖通道連接切換到 RAID15 中的 5K HDD 顯示平均延遲為 21.23ms 讀取和 81.31ms 寫入,而 10K HDD 配置顯示 33.29ms 讀取和 90.31ms 寫入。 在 RAID7 配置中切換到 6K HDD 時,VNX5200 的讀取時間為 58.29 毫秒,寫入時間為 239.64 毫秒。
當在 RAID10 中配置 SSD 並使用我們的 iSCSI 塊級測試時,我們的最大延遲結果時鐘為讀取操作 197 毫秒和寫入操作 421.8 毫秒。 使用具有光纖通道連接的相同 SSD,系統測得讀取時間為 202.1 毫秒,寫入時間為 429.2 毫秒。 使用光纖通道連接切換到 RAID15 中的 5K HDD 記錄了 1,311.3ms 讀取和 1,199.2ms 寫入最大延遲,而 10K HDD 配置記錄了 2,687.8ms 讀取和 2,228.1ms 寫入。 在相同連接類型的 RAID7 配置中切換到 6K HDD 時,OSS1A 和 VNX5200 的讀取時間為 3,444.8 毫秒,寫入時間為 2,588.4 毫秒。
我們最後的 4K 基準是標準偏差,它衡量系統的一致性的延遲性能. 當使用我們的 iSCSI 塊級測試在 RAID10 中配置 SSD 時,OSS1A 和 VNX5200 發布 3.30ms 讀取和 12.06ms 寫入。 使用具有光纖通道連接的相同 SSD 顯示讀取時間為 9.20 毫秒,寫入時間為 14.32 毫秒。 切換到具有光纖通道連接的 RAID15 中的 5K HDD 記錄了 25.93ms 讀取和 120.53ms 寫入,而 10K HDD 配置記錄了 35.37ms 讀取和 175.66ms 寫入。 使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 的讀取時間為 52.75 毫秒,寫入時間為 254.55 毫秒。
我們的下一個基準測試使用由 100% 讀取操作和 100% 寫入操作組成的順序工作負載,傳輸大小為 8k。 此處,當 VNX1 在 RAID178,959 光纖通道連接中配備 76,022K HDD 時,OSS5200A 測得讀取 10IOPS 和寫入 IOPS 5。 在具有光纖通道連接的 RAID15 中使用 5K HDD 顯示 176,895IOPS 讀取和 77,505IOPS 寫入。 使用光纖通道連接切換到 RAID10 中的 SSD 記錄了 169,833IOPS 讀取和 74,470IOPS 寫入,而 SSD iSCSI 塊級測試顯示 69,303IOPS 讀取和 40,379IOPS 寫入。 當在具有光纖通道連接的 RAID7 配置中使用 6K HDD 時,VNX5200 發布了 75,982IOPS 讀取和 76,122IOPS 寫入。
我們的下一系列工作負載由 8k 讀取 (70%) 和寫入 (30%) 操作混合組成,最多 16 個線程 16 個隊列,我們的第一個是吞吐量。 當使用光纖通道連接在 RAID10 中配置 SSD 時,OSS1A 和 VNX5200 發布了一系列 8,673IOPS 至 41,866T/16Q 為 16IOPS. 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示了一系列 6,631IOPS 至 28,193IOPS. 在 RAID15 中切換到具有光纖通道連接的 5K HDD 記錄了一系列 1,204IOPS 6,411IOPS,而 10K HDD 配置在 826T/5,113Q 下發布了 16 IOPS 和 16 IOPS。 當使用相同連接類型的 7K HDD RAID6 配置時,系統發布的範圍為 267IOPS 到 2,467IOPS。
接下來,我們查看了平均延遲。 當 VNX5200 使用光纖通道連接在 RAID10 中配置 SSD 時,OSS1A 測量的 0.45T/6.11Q 範圍為 16 毫秒至 16 毫秒。 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示範圍為 0.59 毫秒到 9.07 毫秒。 在具有光纖通道連接的 RAID15 中切換到 5K HDD 記錄的範圍為 3.31ms 和 39.89ms,而 10K HDD 配置最初為 4.83ms,49.97T/16Q 為 16ms。 使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 發布的範圍為 14.93 毫秒至 103.52 毫秒。
使用光纖通道連接的 RAID10 中 SSD 的最大延遲結果範圍為 27.85 毫秒到 174.43 毫秒(16T/16Q)。 在我們的 iSCSI 塊級測試期間使用相同的 SSD 顯示最大延遲範圍為 31.78 毫秒至 134.48 毫秒。 在具有光纖通道連接的 RAID15 中切換到 5K HDD 記錄的範圍為 108.48ms 和 2,303.72ms,而 10K HDD 配置顯示 58.83T/2,355.53Q 為 16ms 和 16ms。 使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 發布的最大延遲範圍為 82.74 毫秒至 1,338.61 毫秒。
我們的下一張圖表繪製了 8k 70% 讀取和 30% 寫入操作期間延遲的標準偏差計算。 在使用光纖通道連接的 RAID10 中使用 SSD,VNX5200 通過 0.18T/10.83Q 公佈的範圍僅為 16 毫秒至 16 毫秒。 在 iSCSI 塊級測試期間使用相同的 SSD 顯示延遲一致性的相似範圍為 0.21 毫秒至 11.54 毫秒。 在具有光纖通道連接的 RAID15 中切換到 5K 硬盤記錄了 3.48 毫秒到 56.58 毫秒的範圍,而 10K 硬盤配置最初顯示為 2.5 毫秒,66.44T/16Q 為 16 毫秒。 當使用相同連接類型的 7K HDD RAID6 配置時,VNX5200 發布的標準偏差範圍為 7.98 毫秒至 110.68 毫秒。
我們最終的綜合基準測試使用順序 128k 傳輸和 100% 讀取和 100% 寫入操作的工作負載。 在此場景中,當使用我們的 iSCSI 塊級測試為 VNX1 配置 SSD 時,OSS2.84A 測得的讀取速度為 1.26GB/s,寫入速度為 5200GB/s。 在具有光纖通道連接的 RAID15 中使用 5K HDD 顯示 2.48GB/s 讀取和 2.33GB/s 寫入。 切換回具有光纖通道連接的 RAID10 中的 SSD,OSS1A 記錄了 2.48GB/s 的讀取速度和 3.06GB/s 的寫入速度。 當在具有光纖通道連接的 RAID7 配置中使用 6K HDD 時,VNX5200 達到 2.47GB/s 讀取和 2.68GB/s 寫入,而 10K HDD 配置發布 2.47GB/s 讀取和 3.22GB/s 寫入。
結論
自從 EchoStreams OSS1A 首次出現在 StorageReview 以來,它已成為我們實驗室的重要組成部分,它允許我們創建企業存儲基準環境的移動版本。 我們發現機箱設計是靈活性和尺寸之間的一種深思熟慮的折衷方案。 內部佈局還允許相對輕鬆地重新配置,例如在更換 PCIe 擴展卡以與各種網絡協議和環境接口時。 所有這些都不會影響性能,而該平台支持雙英特爾至強 E52600 v2 處理器和高達 384GB 的 DDR3 內存。
這種性能和小尺寸的結合使 EchoStreams OSS1A 成為一個多功能平台,可以部署到依賴外部共享存儲的應用程序服務器。 如此緊湊意味著您的數據中心使用的空間更少,而且非常便攜,可以作為現場單元部署在遠程辦公室等。 機箱還可以針對具有不同前置存儲選項的用例進行定制,提供多達 4 個 7 毫米插槽供需要更快板載存儲的 SSD 使用。 總的來說,EchoStreams OSS1A 在一個令人難以置信的短 21 英寸深的封裝中提供了大量的性能。
優點
- 短深度 1U 外形使系統更便攜,並且能夠安裝在空間非常寶貴的情況下
- 足夠的處理器能力和 RAM 容量來處理各種工作負載
缺點
- 由於機箱尺寸,內部存儲容量有限
底線
EchoStreams OSS1A 提供了執行各種任務的性能和靈活性,封裝在一個令人印象深刻的短深度 1U 機箱中,簡化了空間受限位置的運輸和安裝。 這種組合使 OSS1A 成為 StorageReview 現場測試工具包中不可或缺的組件。