홈페이지 EnterpriseAI NVIDIA, 슈퍼차지 호퍼 HGX H200 출시

NVIDIA, 슈퍼차지 호퍼 HGX H200 출시

by 조던 라누스

NVIDIA는 NVIDIA HGX H200을 출시하여 AI 컴퓨팅 분야에서 큰 도약을 이루었습니다. NVIDIA Hopper 아키텍처를 기반으로 하는 이 새로운 플랫폼은 생성 AI 및 고성능 컴퓨팅(HPC) 워크로드에 맞게 맞춤화된 NVIDIA H200 Tensor Core GPU를 갖추고 있으며 고급 메모리 기능으로 대규모 데이터 볼륨을 처리합니다.

NVIDIA는 NVIDIA HGX H200을 출시하여 AI 컴퓨팅 분야에서 큰 도약을 이루었습니다. NVIDIA Hopper 아키텍처를 기반으로 하는 이 새로운 플랫폼은 생성 AI 및 고성능 컴퓨팅(HPC) 워크로드에 맞게 맞춤화된 NVIDIA H200 Tensor Core GPU를 갖추고 있으며 고급 메모리 기능으로 대규모 데이터 볼륨을 처리합니다.

H200은 고대역폭(HBM3e) 메모리를 통합한 최초의 GPU로, 생성 AI 및 대규모 언어 모델(LLM)에 중요한 더 빠르고 더 큰 메모리를 제공하고 HPC 워크로드를 위한 첨단 과학 컴퓨팅을 제공합니다. 초당 141테라바이트의 속도로 4.8GB 메모리를 탑재해 이전 제품인 엔비디아 A2.4에 비해 용량은 거의 두 배, 대역폭은 100배 더 늘어났다.

최고의 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 200분기에 출시될 예정입니다. NVIDIA의 하이퍼스케일 및 HPC 부사장인 Ian Buck은 HXNUMX이 대용량 데이터 처리 능력을 크게 향상시킬 것이라고 강조합니다. 이는 생성적 AI 및 HPC 애플리케이션에 필수적인 속도입니다.

Hopper 아키텍처는 이전 세대에 비해 눈에 띄게 성능이 향상되었으며 최근 릴리스와 같은 지속적인 소프트웨어 업데이트를 통해 더욱 향상되었습니다. 엔비디아 텐서RT-LLM. H200은 Llama 2와 같은 대규모 언어 모델에서 거의 두 배의 추론 속도를 약속하며 향후 소프트웨어 업데이트에서는 더 많은 성능 향상이 예상됩니다.

H200 사양

NVIDIA H200 텐서 코어 GPU
폼 팩터 H200 SXM
FP64 34 TFLOPS
FP64 텐서 코어 67 TFLOPS
FP32 67 TFLOPS
TF32 텐서 코어 989 TFLOPS
BFLOAT16 텐서 코어 1,979 TFLOPS
FP16 텐서 코어 1,979 TFLOPS
FP8 텐서 코어 3,958 TFLOPS
INT8 텐서 코어 3,958 TFLOPS
GPU 메모리 141GB
GPU 메모리 대역폭 4.8TB/초
디코더 7 NVDEC
7JPEG
최대 열 설계 전력(TDP) 최대 700W(구성 가능)
다중 인스턴스 GPU 각각 7GB에서 최대 16.5개의 MIG
상호 연결 엔비디아 NV링크: 900GB/s
PCIe Gen5: 128GB/s
서버 옵션 NVIDIA HGX H200 파트너 및 4개 또는 8개의 GPU를 갖춘 NVIDIA 인증 시스템

적응형 폼 팩터

NVIDIA H200은 HGX H200 시스템과 호환되는 100방향 및 XNUMX방향 구성의 NVIDIA HGX HXNUMX 서버 보드를 포함하여 다양한 폼 팩터로 제공됩니다. 다음에서도 이용 가능합니다. HBM200e를 탑재한 NVIDIA GH3 Grace Hopper 슈퍼칩. 우리는 최근에 한 편의 글을 게시했습니다. NVIDIA GH200 그레이스 호퍼 서퍼칩. 이러한 옵션은 온프레미스, 클라우드, 하이브리드 클라우드 및 엣지 환경을 포함한 다양한 데이터 센터 유형에 걸쳐 H200의 적응성을 보장합니다.

아마존 웹 서비스(Amazon Web Services), 구글 클라우드(Google Cloud), 마이크로소프트 애저(Microsoft Azure), 오라클 클라우드 인프라(Oracle Cloud Infrastructure) 등 주요 서버 제조사와 클라우드 서비스 제공업체는 내년부터 H200 기반 인스턴스를 구축할 예정이다.

NVIDIA NVLink 및 NVSwitch 고속 상호 연결이 탑재된 HGX H200은 175억 매개변수가 넘는 모델에 대한 훈련 및 추론을 포함하여 다양한 워크로드에 최고의 성능을 제공합니다. 200방향 HGX H32 구성은 8페타플롭 이상의 FP1.1 딥 러닝 컴퓨팅과 2TB의 고대역폭 메모리를 제공하며, NVIDIA Grace CPU 및 NVLink-C200C 상호 연결과 결합된 생성 AI 및 HPC 애플리케이션에 이상적입니다. H200은 GH3 Grace를 구성합니다. 대규모 HPC 및 AI 애플리케이션용으로 설계된 모듈인 HBMXNUMXe가 포함된 Hopper Superchip.

다음을 포함한 NVIDIA의 풀스택 소프트웨어 지원 NVIDIA AI 엔터프라이즈 제품군를 통해 개발자와 기업은 AI를 HPC 애플리케이션에 구축하고 가속화할 수 있습니다. NVIDIA H200은 2024년 XNUMX분기부터 글로벌 시스템 제조업체와 클라우드 서비스 제공업체를 통해 출시될 예정이며 AI 및 HPC 기능의 새로운 시대를 열었습니다.

StorageReview에 참여

뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드