새로운 NVIDIA GB200 NVL72 시스템은 72개의 Blackwell GPU와 36개의 Grace CPU를 연결하여 AI 시스템 설계의 새로운 표준을 설정합니다.
NVIDIA는 다가오는 Hot Chips 2024 컨퍼런스에서 최신 혁신 기술을 공개할 예정이며, 여기서는 데이터 센터 성능과 에너지 효율성의 발전을 선보일 예정입니다. XNUMX조 달러 규모의 데이터 센터 컴퓨팅 시장이 계속 발전함에 따라 NVIDIA의 엔지니어들은 NVIDIA Blackwell 플랫폼, 액체 냉각 솔루션 및 칩 설계용 AI 에이전트의 개발을 선보일 예정입니다.
컨퍼런스 동안 NVIDIA는 다음과 같은 방법을 강조할 것입니다. 엔비디아 블랙웰 플랫폼은 Blackwell GPU, Grace CPU, BlueField DPU 및 CUDA 소프트웨어를 포함한 여러 칩을 통합하여 산업 전반에 걸쳐 차세대 AI를 지원합니다. NVIDIA에 따르면 다중 노드 수냉식 랙 규모 솔루션인 새로운 GB200 NVL72 시스템은 72개의 Blackwell GPU와 36개의 Grace CPU를 연결하여 AI 시스템 설계의 새로운 표준을 설정합니다. 이 시스템은 LLM(대형 언어 모델)에 대해 최대 30배 더 빠른 추론을 통해 생성적 AI 워크로드에 대한 전례 없는 짧은 지연 시간 추론을 가능하게 합니다.
“블랙웰을 맞이할 준비를 하세요”
NVIDIA의 Dave Salvator는 오늘 블로그 게시물에서 “NVIDIA Blackwell은 최고의 풀 스택 컴퓨팅 과제입니다.”라고 말했습니다. "이러한 고급 기술을 통합함으로써 우리는 AI 및 가속화된 컴퓨팅 성능의 표준을 재정의하는 동시에 에너지 효율성을 획기적으로 향상시키고 있습니다."
칩 혁신 외에도 NVIDIA는 데이터 센터를 재정의할 수 있는 냉각 기술에도 중점을 두고 있습니다. 대규모 AI 워크로드 지원의 핵심 요소로 자리잡고 있는 액체 냉각이 논의의 초점이 될 것입니다. NVIDIA의 데이터 센터 냉각 및 인프라 이사인 Ali Heydari는 기존 공랭식 데이터 센터에 개조할 수 있는 하이브리드 액체 냉각 솔루션을 선보일 예정입니다.
이러한 하드웨어 발전 외에도 NVIDIA는 AI 기반 디자인의 한계를 넓히고 있습니다. NVIDIA의 디자인 자동화 연구 이사인 Mark Ren은 AI 모델과 에이전트 기반 시스템이 반도체 디자인을 어떻게 변화시키는지에 대한 통찰력을 제공할 것입니다. 이러한 AI 도구는 셀 클러스터 최적화 및 디버깅과 같은 작업을 자동화하여 칩 설계를 더욱 효율적으로 만들어 엔지니어의 생산성을 향상시킵니다. Ren은 “AI 에이전트는 이전에는 수동 개입이 필요했던 복잡한 작업을 자율적으로 수행함으로써 새로운 가능성을 열어줍니다.”라고 말했습니다.
Hot Chips 2024는 25월 27일부터 XNUMX일까지 스탠포드 대학교와 온라인에서 개최됩니다. 참석자들은 NVIDIA의 최신 혁신과 그것이 AI 및 데이터 센터 기술의 미래를 어떻게 형성하는지에 대한 더 깊은 통찰력을 얻을 수 있을 것으로 기대할 수 있습니다.
Hot Chips 2024에서 NVIDIA Blackwell 발표에 대한 자세한 내용을 보려면 다음을 방문하세요. 엔비디아 공식 홈페이지.
StorageReview에 참여
뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드