Computex 2024에서 ASRock Rack은 강력한 NVIDIA Blackwell 아키텍처를 활용하는 확장 서버 어레이를 공개했습니다. ASRock Rack은 AI, HPC 및 데이터 센터 워크로드의 요구 사항을 충족하도록 설계된 여러 최첨단 시스템을 선보였습니다.
Computex 2024에서 ASRock Rack은 강력한 NVIDIA Blackwell 아키텍처를 활용하는 확장 서버 어레이를 공개했습니다. ASRock Rack은 AI, HPC 및 데이터 센터 워크로드의 요구 사항을 충족하도록 설계된 여러 최첨단 시스템을 선보였습니다.
ASRock Rack 발표의 중심에는 수냉식 랙 솔루션인 ORV3 NVIDIA GB200 NVL72가 있었습니다. 이 시스템은 NVIDIA NVLink 기술을 사용하여 200개의 NVIDIA Grace CPU와 72개의 NVIDIA Blackwell Tensor Core GPU를 통합한 최근 발표된 NVIDIA GB36 NVL72 확장 시스템을 기반으로 구축되었습니다. 이 구성은 총 소유 비용(TCO)을 줄이면서 더 빠른 실시간 LLM(대형 언어 모델) 추론이 가능한 대규모 GPU 장치를 형성합니다.
ORV3 시스템 외에도 ASRock Rack은 6U8X-EGS2 NVIDIA HGX B100 및 6U8X-GNR2/DLC NVIDIA HGX B200 고급 서버 모델을 출시했습니다. 이 서버에는 각각 NVIDIA HGX B100 및 B200 8-GPU 시스템이 장착되어 있습니다.
NVIDIA HGX B100은 기존 NVIDIA HGX H100 인프라를 즉시 대체할 수 있어 전환이 용이합니다. 6U8X-GNR2/DLC NVIDIA HGX B200은 칩 직접 액체 냉각 기술을 갖추고 있어 시스템이 6U 랙마운트 설계 내에서 NVIDIA Blackwell GPU의 TDP(열 설계 전력)를 효율적으로 처리할 수 있습니다. 액체 냉각 인프라가 없는 사람들을 위해 ASRock Rack은 공냉식 8U8X-GNR2 NVIDIA HGX B200을 출시할 계획이며, 또한 200조 매개변수 모델에 대한 고성능 실시간 추론을 위한 NVIDIA HGX B8 XNUMX-GPU 시스템도 갖추고 있습니다.
향상된 연결성
모든 ASRock 랙 NVIDIA HGX 서버는 엔드투엔드 AI 최적화 이더넷 솔루션인 NVIDIA Spectrum-X 플랫폼을 활용하여 최대 3개의 NVIDIA BlueField-XNUMX SuperNIC를 지원합니다. 또한 이러한 시스템은 생성 AI를 위한 NVIDIA AI 엔터프라이즈 소프트웨어 제품군의 일부로 NVIDIA NIM 추론 마이크로서비스를 포함한 풀 스택 NVIDIA AI 및 가속 컴퓨팅 플랫폼에 대해 인증됩니다.
ASRock Rack의 사장 Weishi Sa는 NVIDIA Blackwell 아키텍처로 구동되는 최고 수준의 데이터 센터 솔루션을 제공하겠다는 회사의 약속을 강조했습니다. “우리는 LLM 교육 및 생성적 AI 추론에서 가장 까다로운 워크로드를 위한 데이터 센터 솔루션을 선보이고 있습니다. 우리는 NVIDIA Blackwell 아키텍처의 장점을 주류 LLM 추론 및 데이터 처리에 적용하기 위해 포트폴리오를 계속 확장할 것입니다.”라고 Sa는 말했습니다.
ASRock Rack은 NVIDIA Blackwell 아키텍처의 이점을 확장 구성으로 확장하여 기존 데이터 센터 인프라와의 원활한 통합을 보장하기 위해 NVIDIA GB200 NVL2를 기반으로 하는 새로운 제품을 개발하고 있습니다.
NVIDIA의 GPU 제품 관리 부사장인 Kaustubh Sanghani는 ASRock Rack과의 협력을 강조했습니다. 그는 "ASRock Rack과 협력하여 우리는 하드웨어와 소프트웨어를 완벽하게 통합하여 획기적인 성능과 확장성을 제공하고 AI와 고성능 컴퓨팅의 경계를 넓히는 데 도움이 되는 강력한 AI 생태계를 기업에 제공하고 있습니다."라고 말했습니다.
NVIDIA MGX 모듈형 참조 아키텍처
신제품 외에도 ASRock Rack은 NVIDIA MGX 4U 아키텍처를 준수하는 듀얼 소켓 GPU 서버인 2UMGX-GNR4를 선보였습니다. 이 서버는 NVIDIA H200 NVL Tensor Core GPU와 같은 FHFL 듀얼 슬롯 GPU를 최대 5.0개까지 지원하므로 메인스트림 엔터프라이즈 서버에 적합합니다. 이 제품은 16개의 FHHL PCIe 5.0 x16 슬롯과 3개의 HHHL PCIe 7 x200 슬롯을 갖추고 있어 다중 400Gb/s 또는 16Gb/s 네트워크 연결을 위해 NVIDIA BlueField-1 DPU 및 NVIDIA ConnectX®-5.0 NIC를 지원합니다. 서버에는 E4.S(PCIe XNUMX xXNUMX) SSD용 핫스왑 드라이브 베이 XNUMX개도 있습니다.
ASRock Rack MGX 플랫폼의 가장 흥미로운 측면 중 하나는 E1.S 스토리지 솔루션 구현입니다. 무려 16개의 E1.S 드라이브 중 절반은 CPU에 직접 연결되어 있지만 더 흥미롭게도 나머지 8개는 GPU 백플레인도 연결된 PCI-e 스위치에 연결되어 있습니다. 이는 GPU Direct 스토리지에 대한 몇 가지 흥미롭고 매우 흥미로운 사용 사례를 제시합니다.
ASRock Rack 부스에서는 ASRock Rack이 올해 초 출시한 MECAI-NVIDIA GH200 Grace Hopper Superchip 서버를 포함하여 더욱 발전된 서버 시스템을 선보일 것으로 예상됩니다. NVIDIA의 Blackwell 아키텍처로 구동되는 ASRock Rack의 새로운 서버 포트폴리오는 데이터 센터 및 AI 기술의 상당한 발전을 나타냅니다. 이러한 시스템은 뛰어난 성능, 유연성, 확장성을 제공하여 AI와 고성능 컴퓨팅의 경계를 넓히려는 기업의 요구 사항을 충족합니다.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드