MegaRAID 9600 시리즈는 SATA, SAS 및 NVMe 드라이브를 지원하는 9600세대 스토리지 어댑터로, 스토리지 서버에 가능한 최고의 성능과 데이터 가용성을 제공하도록 설계되었습니다. 이전 세대에 비해 2 시리즈는 대역폭 4배 증가, IOPs 25배 이상 증가, 쓰기 지연 시간 60배 감소, 재구축 중 성능 XNUMX배 증가를 제공합니다.
MegaRAID 9600 시리즈는 SATA, SAS 및 NVMe 드라이브를 지원하는 9600세대 스토리지 어댑터로, 스토리지 서버에 가능한 최고의 성능과 데이터 가용성을 제공하도록 설계되었습니다. 이전 세대에 비해 2 시리즈는 대역폭 4배 증가, IOPs 25배 이상 증가, 쓰기 지연 시간 60배 감소, 재구축 중 성능 9600배 증가를 제공합니다. 평소와 같이 9670 카드 제품군에는 다양한 구성이 포함되어 있습니다. 이 리뷰에서는 16개의 내부 포트를 지원하는 Broadcom MegaRAID 16W-XNUMXi를 살펴봅니다.
MegaRAID 9670W-16i는 전반적인 성능 향상의 핵심 요소인 SAS4116W RoC(RAID-on-Chip)를 기반으로 합니다. 사용자는 x240 PCIe Gen 32 인터페이스로 컨트롤러당 최대 16개의 SAS/SATA 장치 또는 4.0개의 NVMe 장치를 연결할 수 있습니다.
9600 시리즈는 또한 하드웨어 보안 부팅 및 SPDM 증명 지원, 밸런스 보호, RAID 0, 1, 5, 6, 10, 50, 60 및 JBOD에 대한 성능을 제공합니다. CacheVault 플래시 캐시 보호는 더 많은 보호를 원하는 사용자를 위한 옵션입니다.
NVMe용 하드웨어 RAID가 필요한 이유는 무엇입니까?
하드웨어 RAID는 오늘날 IT 관리자의 수염이 백발이 되기 전부터 탄력적인 스토리지를 제공하기 위한 선택 옵션이었습니다. 그러나 스토리지, 특히 NVMe SSD가 더 빨라짐에 따라 RAID 카드는 시대를 따라잡기 위해 고군분투했습니다. 따라서 Broadcom이 MegaRAID 9670W-16i에 대한 리뷰를 발표했을 때 우리는 다소 의심스러웠습니다. 진실은 RAID 카드에 성능 비용이 있다는 것입니다. 그 결과 우리는 수년 동안 RAID 카드를 피했습니다. 즉, 하드웨어 RAID가 제공하는 가치는 부인할 수 없습니다.
VMware ESXi를 포함하는 소프트웨어 RAID 옵션을 제공하지 않는 환경의 경우 고객은 스토리지를 쉽게 통합하거나 RAID로 스토리지를 보호할 수 없습니다. vSAN은 클러스터 수준에서 쉽게 구현할 수 있지만 에지의 독립형 ESXi 노드에는 사용할 수 없습니다. 여기에서 고객은 더 큰 데이터 저장소 또는 일부 데이터 복원력을 위해 RAID에서 여러 SSD를 함께 가져오는 이점을 원할 수 있습니다.
개별 서버를 위한 스토리지 공간을 제공하는 Windows에서도 RAID5/6과 같은 특정 소프트웨어 RAID 유형이 큰 타격을 받습니다. 과거에 하드웨어 RAID는 SAS 및 SATA 장치의 성능 격차를 해소하는 효과적인 솔루션이었으며 MegaRAID 9670W는 NVMe 장치의 성능 격차를 바꾸는 것을 목표로 합니다.
Broadcom MegaRAID 9670W-16i 테스트 베드
이 검토를 위해 Micron, Supermicro 및 Broadcom과 협력하여 테스트 베드를 조립했습니다. 서버는 AMD Milan 1114 CPU와 10GB DDR1가 장착된 Supermicro AS-7643S-WN128RT 4U 시스템입니다. 이 시스템 내부에는 트윈 9670베이 NVMe JBOD에 케이블로 연결된 16W-8i가 있습니다. 각각 내부에는 8TB 용량으로 포맷된 7450개의 Micron 6.4 SSD가 있습니다.
MegaRAID 9670W-16i 어댑터를 통해 드라이브의 성능을 측정하기 위해 벤치마크를 다음 구성으로 분할했습니다. 첫 번째는 RAID 외부(여전히 HBA를 통해), RAID10, RAID5 구성의 각 드라이브를 측정하는 JBOD 구성을 포함했습니다. 이러한 구성은 스크립팅 프로세스를 통해 플래시를 사전 조정하고, 조정된 테스트를 실행하고, 다음 사전 조정/작업 부하 조합으로 이동했습니다. 이 프로세스는 총 16시간 정도 측정되었습니다.
- 다음 순서로 약 16시간의 총 테스트 실행 시간:
- 순차 사전 조건 지정(~2:15)
- 16x JBOD, 2x 8DR10, 2x 8DR5에 대한 순차적 테스트(~2시간)
- 무작위 사전 조건화 – 2부(~4:30)
- 16x JBOD, 2x 8DR10, 2x 8DR5에 대한 무작위 최적 테스트(~3시간)
- 1x 16DR10, 1x 16DR5에 대한 무작위 재구축 테스트(~2:30)
- 1x 16DR5(~1:40)에 대한 최적 및 재구축을 위한 임의 쓰기 대기 시간
성능 메트릭의 첫 번째 섹션은 JBOD, RAID10 및 RAID5 모드에서 카드를 통한 대역폭에 중점을 둡니다. x9670 PCIe Gen16 슬롯 너비를 제공하는 MegaRAID 16W-4i를 사용하면 최고 성능은 한 방향으로 약 28GB/s가 될 것이며 Gen4 슬롯이 최고입니다. 이에 비해 U.2 Gen4 SSD는 x4 연결을 통해 연결되며 최대 약 7GB/s가 될 수 있으며, 대부분의 기업용 드라이브가 읽기 워크로드에 대해 최고가 될 수 있는 곳입니다.
즉, MegaRAID 9670W는 연결된 슬롯을 완전히 포화시킵니다. 읽기 성능을 볼 때 JBOD 구성은 RAID28.3에서 10GB/s로 제공되고 RAID5는 28GB/s로 측정됩니다. 초점을 쓰기 성능으로 전환하면 JBOD 기준선은 26.7GB/s인 반면 RAID10 구성은 10.1GB/s, RAID5는 13.2GB/s로 나타났습니다. 동시 읽기 및 쓰기 트래픽의 50:50 분할을 보면 JBOD 구성은 41.6GB/s, RAID10은 19.6GB/s, RAID5는 25.8GB/s로 측정되었습니다.
작업량 | JBOD(MB/초) | RAID 10 – 최적(MB/s) | RAID 5 – 최적(MB/s) |
---|---|---|---|
최대 순차 읽기 | 28,314 | 28,061 | 28,061 |
최대 순차 쓰기 | 26,673 | 10,137 | 13,218 |
최대 50:50 시퀀스 읽기:쓰기 | 41,607 | 19,639 | 25,833 |
소규모 블록 무작위 전송으로 초점을 전환할 때 MegaRAID 9670W가 7M IOPS의 JBOD 기준 수치에 비해 읽기 성능이 꽤 잘 유지되는 것을 볼 수 있습니다. 이 속도는 RAID 그룹에서 하나의 SSD에 장애가 발생한 경우 재구축 작업 중에 약 절반(3.2M IOPS)으로 떨어졌습니다. 임의 쓰기 성능을 살펴보면 JBOD 기준선은 RAID6.3의 2.2M 및 RAID10의 1M에 대해 5M IOPS를 측정했습니다. 이 수치는 그룹에서 SSD가 실패하고 RAID 카드가 강제로 재구축되었을 때 상당한 하락을 보이지 않았습니다. 이 상황에서 RAID10은 변경되지 않았지만 RAID5는 1M에서 788k IOPS로 떨어졌습니다.
읽기 및 쓰기 성능이 혼합된 4K OLTP 워크로드에서 JBOD 베이스라인은 RAID7.8(10M IOPS) 및 RAID5.6(5M IOPS)에 대해 2.8M IOPS로 측정되었습니다. 재구축하는 동안 RAID10은 5.6M에서 2.4M IOPS로 떨어졌고 RAID5는 2.8M에서 1.8M IOPS로 떨어졌습니다.
작업량 | JBOD | RAID 10 – 최적 | RAID 5 – 최적 | RAID 10 – 재구축 | RAID 5 – 재구축 |
---|---|---|---|---|---|
4KB 임의 읽기(IOP) | 7,017,041 | 7,006,027 | 6,991,181 | 3,312,304 | 3,250,371 |
4KB 임의 쓰기(IOP) | 6,263,549 | 2,167,101 | 1,001,826 | 2,182,173 | 788,085 |
4KB OLTP(IOP) | 7,780,295 | 5,614,088 | 2,765,867 | 2,376,036 | 1,786,743 |
RAID 성능의 또 다른 중요한 측면은 최적의 조건과 드라이브 장애 시 재구축 성능 사이에서 스토리지가 얼마나 잘 작동하는지입니다. 성능이나 대기 시간이 크게 저하되면 애플리케이션 응답성이 문제가 될 수 있습니다. 이를 위해 최적 및 재구축 모드에서 RAID5 4K 임의 쓰기 대기 시간에 중점을 두었습니다. 스펙트럼 전반에 걸쳐 대기 시간은 매우 유사하게 유지되었으며, 이는 프로덕션 환경 스토리지 시스템에서 정확히 확인하고자 하는 것입니다.
재구축 작업 중 RAID 카드의 성능도 포함하는 시점 성능 메트릭을 통해 각 모드의 전체 성능을 평가했을 뿐만 아니라 재구축에 걸리는 총 시간을 결정하기 위한 테스트도 수행했습니다. 여기 RAID10에서 RAID 그룹에서 6.4TB SSD를 제거하고 다시 추가하는 데 60.7분/TB의 재구축 속도로 RAID10의 경우 10.4분이 걸렸습니다. RAID5 그룹은 82.3분/TB의 속도로 14.1분이 걸렸습니다.
최종 생각
솔직히 말해서, 우리는 머리를 약간 숙이고 한쪽 눈썹을 치켜든 채 이 리뷰에 들어왔습니다. GPU를 중심으로 설계된 새로운 종류의 솔루션 외에 NVMe SSD용 RAID 카드 피치는 한동안 듣지 못했습니다. 그래서 우리는 근본적인 질문을 해야 했습니다. 하드웨어 RAID가 NVMe SSD에도 적용될 수 있습니까?
대답은 분명히 '예'입니다. PCIe Gen4의 성능을 통해 MegaRAID 9670W-16i RAID 카드는 다양한 워크로드에서 최신 SSD를 따라잡을 수 있습니다. 예, 대역폭과 같은 일부 영역은 더 적은 수의 PCIe 레인으로 제한되지만 대부분의 프로덕션 환경은 해당 수준에 있지 않습니다.
최대 대역폭에서 MegaRAID 9670W-16i는 읽기에서 16GB/s의 x4 PCIe Gen28 제한까지 작업을 수행하고 쓰기 대역폭에서 RAID13에서 최대 5GB/s를 제공하는 것을 확인했습니다. 처리량 측면에서 무작위 4K 읽기 성능은 RAID7와 RAID1 사이에서 2.1~5M IOPS 범위의 쓰기 범위에서 10M IOPS로 최고를 기록했습니다. 플래시를 더 큰 볼륨으로 통합하거나 소프트웨어 RAID를 지원하지 않는 시스템을 우회하려는 배포를 위해 MegaRAID 9670W는 많은 것을 제공합니다.
스토리지 어댑터를 좋아한다면 이러한 종류의 적용 범위를 더 많이 얻게 될 것입니다. 우리는 이미 이 카드와 동일한 실리콘을 기반으로 하는 트윈 RAID 카드 구성을 제공하는 Dell PowerEdge R760과 같은 최신 세대 서버를 탐색하고 있습니다. R760 케이스에서 Dell은 각 카드에 8개의 NVMe SSD를 부착하여 여기서 검증을 위해 테스트한 것보다 더 강력한 엔터프라이즈 솔루션을 제공합니다. NVMe SSD가 장착된 서버의 메뉴에 RAID 카드가 다시 등장한 것처럼 보이는 지금 훨씬 더 많은 것이 있습니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드