首页 企业版配件 NVIDIA A100 80GB GPU 亮相

NVIDIA A100 80GB GPU 亮相

by 亚当·阿姆斯特朗
英伟达 A100 80GB

今天在 SC20 上,NVIDIA 宣布,随着 NVIDIA A100 100GB GPU 的亮相,其广受欢迎的 A80 GPU 的高带宽内存将翻倍。 这个新的 GPU 将是为新的 NVIDIA HGX AI 超级计算平台提供动力的创新。 凭借两倍的内存,新 GPU 希望帮助研究人员和工程师达到前所未有的速度和性能,以开启下一波 AI 和科学突破。

今天在 SC20 上,NVIDIA 宣布,随着 NVIDIA A100 100GB GPU 的亮相,其广受欢迎的 A80 GPU 的高带宽内存将翻倍。 这个新的 GPU 将是为新的 NVIDIA HGX AI 超级计算平台提供动力的创新。 凭借两倍的内存,新 GPU 希望帮助研究人员和工程师达到前所未有的速度和性能,以开启下一波 AI 和科学突破。

英伟达 A100 80GB

今年早些时候在 GTC 上,NVICIA 宣布发布其 7nm GPU,NVIDIA A100. 正如我们当时所写,A100 基于 NVIDIA 的安培架构,包含 54 亿个晶体管。 与之前的 NVIDIA 数据中心 GPU 一样,A100 包含 Tensor Core。 Tensor 核心是 GPU 的专用部分,专门设计用于快速执行推理中常用的一种矩阵乘法和加法计算。新的更强大的 GPU 带来了新的、更强大的 Tensor 核心。 以前,NVIDIA 的 Tensor Cores 最多只能支持 100 位浮点数。 AXNUMX 支持 XNUMX 位浮点运算,精度更高。

据说将高带宽内存 (HBM2e) 提高到 80GB 可以提供每秒 2 TB 的内存带宽。 这种新的提升有助于 HPC 中具有巨大数据内存需求的新兴应用程序,例如 AI 培训、自然语言处理和大数据分析等。

A100 80GB 的主要特点

A100 80GB 包括 NVIDIA Ampere 架构的许多突破性功能:

  • 第三代张量核心:提供高达上一代 Volta 20 倍的 AI 吞吐量,采用新格式 TF32,以及用于 HPC 的 2.5 倍 FP64、用于 AI 推理的 20 倍 INT8,并支持 BF16 数据格式。
  • 更大、更快的 HBM2e GPU 显存:显存容量加倍,是业内首款提供每秒超过 2TB 显存带宽的产品。
  • MIG 技术:将每个独立实例的内存加倍,最多提供七个 MIG,每个 10GB。
  • 结构稀疏性:提供高达 2 倍的加速推理稀疏模型。
  • 第三代 NVLink 和 NVSwitch:提供两倍于上一代互连技术的 GPU 到 GPU 带宽,将数据传输到 GPU 的数据密集型工作负载加速到每秒 600 GB。

可用性

源讯、戴尔科技、富士通、技嘉、惠普、浪潮、联想、广达和超微预计将在明年上半年开始提供使用 HGX A100 集成基板构建的系统,这些基板配备 A100 80GB GPU。

NVIDIA公司

参与 StorageReview

电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | Facebook | RSS订阅