홈페이지 EnterpriseAI 일본, 수천 대의 NVIDIA H200을 AI 브리징 클라우드 인프라 3.0에 통합

일본, 수천 대의 NVIDIA H200을 AI 브리징 클라우드 인프라 3.0에 통합

by 조던 라누스

NVIDIA는 수천 개의 H200 Tensor Core GPU를 일본의 AI 브리징 클라우드 인프라 3.0(ABCI 3.0)에 통합할 예정입니다. NVIDIA Quantum-2 InfiniBand 네트워킹을 갖춘 HPE Cray XD 시스템은 ABCI 요구 사항에 맞는 성능과 확장성을 제공합니다.

일본은 수천 개의 NVIDIA H200 Tensor Core GPU를 AI 브리징 클라우드 인프라 3.0(ABCI 3.0)에 통합하여 AI 연구 개발에서 상당한 발전을 이루려고 합니다. 국립산업과학기술종합연구소(AIST)가 주도하는 이번 통합은 HPE 크레이 XD 시스템을 갖춘 NVIDIA Quantum-2 InfiniBand 뛰어난 성능과 확장성을 약속하는 네트워킹.

ABCI 3.0: AI 연구 및 개발 발전

ABCI 3.0은 AI R&D를 추진하기 위해 설계된 일본의 대규모 개방형 AI 컴퓨팅 인프라의 최신 버전을 나타냅니다. 이번 개발은 AI 역량과 기술 독립성을 강화하려는 일본의 노력을 강조합니다. AIST는 2018년 3.0월 오리지널 ABCI를 출시한 이후 대규모 AI 인프라 관리 분야에서 상당한 경험을 축적했습니다. 이러한 기반을 바탕으로 NVIDIA 및 HPE와 협력하여 ABCI XNUMX 업그레이드는 일본의 생성적 AI 연구 및 개발 역량을 향상시키는 것을 목표로 합니다.

이는 귀하의 문화, 사회의 지능, 상식, 역사를 성문화합니다. 귀하는 자신의 데이터를 소유합니다. – Jensen Huang NVIDIA 사장 겸 CEO

ABCI 3.0 슈퍼컴퓨터는 카시와(Kashiwa)에 위치할 예정입니다.
이미지 제공: 국립산업과학기술원

ABCI 3.0 프로젝트는 AIST, 비즈니스 자회사인 AIST Solutions, 시스템 통합업체인 HPE(Hewlett Packard Enterprise)가 참여하는 공동 노력입니다. 이 계획은 경제보장기금을 통해 일본 경제산업성(METI)의 지원을 받습니다. 이는 컴퓨팅 리소스를 강화하고 클라우드 AI 컴퓨팅에 투자하기 위한 METI의 광범위한 1억 달러 이니셔티브의 일부를 구성합니다. NVIDIA의 참여는 매우 중요합니다. 회사는 생성 AI, 로봇공학, 양자 컴퓨팅에 대한 연구를 지원하고 AI 스타트업에 투자하는 동시에 광범위한 제품 지원, 교육 및 교육을 제공하겠다고 약속했습니다.

NVIDIA는 일본에 전념합니다

AI 연구 및 교육에 대한 NVIDIA와 METI의 협력은 CEO Jensen Huang의 방문에 이어 이루어졌습니다. 그는 방대한 양의 데이터를 실행 가능한 인텔리전스로 변환하는 데 있어 집중적인 AI 작업을 위해 설계된 차세대 데이터 센터인 "AI 팩토리"의 중요한 역할을 강조했습니다. 일본의 AI 야망을 지원하겠다는 황의 약속은 AI 공장이 전 세계적으로 현대 경제의 기반이 된다는 그의 비전과 일치합니다.

AI 공장은 전 세계 현대 경제의 기반이 될 것입니다 – Jensen Huang NVIDIA 사장 겸 CEO

초고밀도 데이터 센터와 에너지 효율적인 설계를 갖춘 ABCI 3.0은 AI 및 빅 데이터 애플리케이션 개발을 위한 강력한 인프라를 제공할 것입니다. 올해 말까지 운영될 것으로 예상되는 이 시스템은 도쿄 인근 카시와(Kashiwa)에 설치되어 최첨단 AI 연구 및 개발 리소스를 제공할 것입니다.

비교할 수 없는 성능과 효율성

ABCI 3.0 시설은 6 AI 엑사플롭의 컴퓨팅 용량, 희소성 없는 AI 특정 성능 측정, 일반 컴퓨팅 용량을 위한 410 배정밀도 페타플롭을 제공합니다. 각 노드는 2GB/s의 이중 대역폭을 제공하는 Quantum-200 InfiniBand 플랫폼을 통해 연결됩니다. NVIDIA 기술은 8개의 NVLink 연결 H200 GPU가 장착된 수백 개의 노드를 통해 이 이니셔티브의 핵심을 형성하여 비교할 수 없는 컴퓨팅 성능과 효율성을 보장합니다.

NVIDIA H200 GPU는 초당 140테라바이트(TB/s)의 속도로 3GB 이상의 HBM4.8e 메모리를 제공하는 획기적인 구성 요소입니다. NVIDIA는 AI 워크로드를 위한 ABCI의 이전 세대 플랫폼에 비해 에너지 효율성이 15배 향상되었다고 주장합니다. 이 더 크고 빠른 메모리는 생성 AI 및 LLM(대형 언어 모델)을 크게 가속화하여 에너지 효율성을 높이고 총 소유 비용을 낮추면서 고성능 컴퓨팅(HPC) 워크로드를 위한 과학 컴퓨팅을 발전시킵니다.

Quantum-2 InfiniBand 고급 네트워킹 

NVIDIA Quantum-2 InfiniBand를 네트워크 내 컴퓨팅 기능과 통합하면 네트워킹 장치가 데이터에 대한 계산을 수행하여 CPU에서 작업을 오프로드할 수 있습니다. 이를 통해 집약적인 AI 워크로드와 대규모 데이터 세트를 관리하는 데 필수적인 효율적이고 빠른 속도의 짧은 지연 시간 통신이 보장됩니다.

ABCI의 세계적 수준의 컴퓨팅 및 데이터 처리 기능은 업계, 학계, 정부 간의 공동 AI R&D 노력을 가속화할 것입니다. 이 프로젝트에 대한 METI의 상당한 투자는 AI 개발 역량을 강화하고 생성 AI 사용을 가속화하려는 일본의 전략적 비전을 강조합니다. 일본은 AI 슈퍼컴퓨터 개발에 보조금을 지원함으로써 차세대 AI 기술 개발과 관련된 시간과 비용을 줄여 글로벌 AI 환경의 리더로 자리매김하는 것을 목표로 하고 있습니다.

StorageReview에 참여

뉴스레터 | 유튜브 | 팟캐스트 iTunes/스포티 파이 | 인스타그램 | 트위터 | 틱톡 서비스 | RSS 피드