NVIDIA Computex 2025 公告涵盖 NVLink Fusion、RTX PRO 6000 服务器、DGX Cloud Lepton、Jetson Thor 和 GR00T-Dreams 机器人。
NVIDIA 在 2025 年台北国际电脑展上发布了一系列令人兴奋的公告。 该公司推出了涵盖半定制人工智能基础设施、企业人工智能工厂、民主化人工智能开发工具以及人形机器人先进平台的新技术,标志着人工智能与计算和工业各个方面的融合速度显著加快。
NVLink Fusion:开启半定制 AI 基础设施新时代
NVIDIA 在台北国际电脑展 (Computex) 上发布的一项重要公告是宣布推出 NVLink。借助 NVIDIA NVLink Fusion,该公司提供 IP 和全新的芯片基础,使各行各业能够通过将其技术与其先进的互连技术相集成,构建半定制的 AI 基础设施。
客户可以开发定制 ASIC,或将其 CPU 直接连接到高性能扩展架构。例如,公司可以使用 C2C 链路将其定制 CPU 与 NVIDIA GPU 配对,或者反过来,将其专用 AI ASIC 与 NVIDIA 的 Grace 或即将推出的 Vera 等 CPU 集成,所有这些都通过 NVLink 互连。当前一代芯片到芯片接口在 CPU 和 GPU 之间提供高达 900GB/s 的双向带宽。同时,更广泛的第五代 NVLink平台 每个 GPU 拥有令人印象深刻的 1.8TB/s 双向带宽。
这对业界来说是个振奋人心的消息。构建 AI 加速器的公司现在有一个令人信服的选择:他们可以选择新兴的开放标准,例如 UALink这些技术虽然致力于开放,但目前仍落后于 NVIDIA 现有的互连速度,并且仍在开发中。此外,借助 NVLink Fusion,他们可以与目前最快的扩展互连集成,立即获得尖端性能以及 NVIDIA 全面成熟的软件套件。
许多行业合作伙伴已纷纷加入。采用 NVLink Fusion 打造定制 AI 芯片和专用基础设施的主要参与者包括 ASIC 和 IP 合作伙伴联发科、Marvell、Alchip Technologies、Astera Labs、Synopsys 和 Cadence。此外,CPU 创新者富士通和高通科技也计划构建与 NVIDIA GPU 和 NVLink 生态系统相结合的定制 CPU。
Blackwell Pro 6000 服务器:助力企业 AI 工厂
NVIDIA 在 Computex 上发布的另一项重要公告,聚焦于通过 NVIDIA RTX PRO Blackwell 服务器革新企业 AI。核心 GPU RTX PRO 6000 Blackwell 与其工作站版本共享强大的架构,但其独特的创新显著增强了其与更标准服务器设计的集成:NVIDIA ConnectX-8 (CX8),黄仁勋将其描述为“首先是交换机,其次是网络芯片”。
真正的突破在于 CX8 如何促进服务器内部 GPU 之间以及跨多台服务器的高速东西向流量。正如黄仁勋所提到的,此功能使 RTX PRO 6000 GPU 能够高效通信,以应对高要求的推理工作负载,这与旗舰 Blackwell GB200 和 GB300 AI 工厂系统上 NVLink 的高带宽互连互通如出一辙。这种 GPU 之间的直接通信绕过了速度较慢的传统路径,使 RTX PRO Blackwell 服务器成为企业推理领域的卓越价值主张。与 NVIDIA Dynamo 等软件配合使用时,这些服务器提供高效且可扩展的AI代理部署和操作。
我们还看到了主板。它有八个 PCIe 插槽,用于容纳 RTX PRO 6000 Blackwell GPU。此外,还有八个 PCIe 接口连接到主板。此外,最引人注目的是八个 800Gbps 网络连接,由 4 颗 CX8 芯片驱动。这些高速端口支持强大的服务器间通信,使企业能够通过将多台 RTX PRO Blackwell 服务器联网成强大的集群来扩展其推理能力。
最后,黄仁勋强调了性能的飞跃,他展示了基准测试结果,表明全新 RTX PRO Blackwell 服务器在 Lama 1.7B 推理方面,性能是 Hopper H100 HGX 系统的 70 倍。更令人印象深刻的是,在 DeepSeek R1 模型中,Blackwell 服务器的性能比上一代最先进的 H100 提升了四倍。每秒令牌数和每用户每秒令牌数的显著提升,凸显了该服务器处理高吞吐量、低延迟交互式 AI 任务的能力。
人形机器人、Nvidia Jetson Thor 和 GR00T 项目:推进物理 AI 的前沿
NVIDIA 还重点介绍了其在蓬勃发展的人形机器人领域的发展计划,并公布了其 NVIDIA Isaac 平台的重大改进,旨在加速“物理 AI”的发展。据黄仁勋介绍,全新 Jetson Thor 机器人处理器是该计划的核心,该处理器刚刚投入生产。Jetson Thor 旨在成为新一代人形机器人和自主系统强大而节能的“大脑”。
与硬件相辅相成的是 NVIDIA Isaac GR00T N1.5,它是 NVIDIA 开放的通用人形机器人推理和技能基础模型的升级版。黄仁勋宣布,GR00T N1.5 现已开源,并已获得数千次下载,引起了广泛关注。该模型旨在为机器人提供智能,使其能够理解复杂的指令,并在动态的人类环境中执行各种任务。
机器人技术面临的一个关键挑战是获取海量且多样化的训练数据集。NVIDIA 通过 Isaac GR00T-Dreams 解决了这一难题,这是一个基于 NVIDIA Cosmos 物理 AI 世界基础模型构建的开创性蓝图。黄仁勋将其详细描述为一个“真实到真实的数据工作流程”,巧妙地利用 AI 来增强人类演示。开发人员可以通过初始的人类远程操作任务演示来微调 Cosmos。然后,他们可以使用 GR00T-Dreams,用新的场景或指令来提示模型,从而生成大量的“梦想”。 机器人执行新动作的合成视频序列这些 2D 梦境视频被转换成 3D 动作轨迹,用于训练 GR00T 机器人模型。“因此,一小队人类演示者现在可以完成数千人的工作,”黄仁勋解释说,并强调了这如何显著扩展数据生成。
整个生态系统涵盖了现已在 GitHub 上开源的 Isaac Sim(用于模拟)、用于机器人学习的 Isaac Lab(用于机器人学习)、与 Google DeepMind 和迪士尼研究院共同开发的先进牛顿物理引擎,以及 Cosmos 世界模型,构成了一个全面的云端到机器人平台。黄仁勋预计,“物理人工智能和机器人技术将带来下一场工业革命”,而人形机器人尤其适合“棕地”人类环境,有可能成为“下一个数万亿美元的产业”。
DGX Spark、Station 和 Cloud Lepton
NVIDIA 继续努力实现高性能计算,并对其 DGX 产品进行关键更新,从全球云市场到强大的个人 AI 超级计算机。
NVIDIA DGX Cloud Lepton 是此次发布的一项重要新举措,这是一个 AI 平台,拥有一个计算市场,旨在将全球 AI 开发者与数万个 GPU 连接起来。该平台旨在统一云端 AI 服务和 GPU 容量访问,这些访问来自 CoreWeave、Crusoe、富士康和软银公司等 NVIDIA 云合作伙伴的全球网络。这些合作伙伴将在 DGX Cloud Lepton 市场上提供 NVIDIA Blackwell 和其他 NVIDIA 架构的 GPU。开发者可以利用特定区域的计算能力来满足按需和长期需求,从而支持战略性和自主性的 AI 运营。DGX Cloud Lepton 与 NVIDIA 的软件堆栈(包括 NIM 和 NeMo 微服务)集成,以简化 AI 应用程序的开发和部署,并与其 NCP 合作,打造一个行星级的 AI 工厂。
DGX Cloud Lepton 专注于广泛的云访问,而 NVIDIA 则重点强调了其个人 AI 超级计算机 NVIDIA DGX Spark 和 DGX Station 不断扩展的生态系统。重点在于发展合作伙伴关系,并通过更多供应商提高可用性。这些系统定位为 AI 原生计算机,面向需要专用 AI 云环境的开发者、学生和研究人员。
- DGX Spark 搭载 NVIDIA GB10 Grace Blackwell 超级芯片,提供高达 1 petaflop 的 AI 计算能力。目前,该芯片已全面量产,并将很快与包括宏碁、华硕、戴尔科技、技嘉、惠普、联想和微星在内的更多合作伙伴合作上市。
- DGX Station 也得到了更广泛的合作伙伴采用,它搭载 NVIDIA GB300 Grace Blackwell Ultra 桌面超级芯片,可提供高达 20 petaflops 的 AI 性能。华硕、戴尔科技、技嘉、惠普和微星将于今年晚些时候推出 DGX Station,提供能够运行万亿参数 AI 模型的桌面解决方案。
Nvidia RTX 5060 发布
NVIDIA 还在 Computex 上发布了 NVIDIA GeForce RTX 5060,作为其广泛发布的成果。RTX 5060 即日起以合作伙伴的附加卡形式和集成到新款游戏笔记本电脑中的形式发售,旨在为更广泛的受众提供引人注目的性能和功能。
RTX 5060 基于 Blackwell 架构,支持 DLSS 4,并充分利用 NVIDIA 最新的 AI 超分辨率和帧生成技术。它拥有 614 AI TOPS (INT4),可增强 AI 处理能力。该卡配备第五代 Tensor Core 和第四代 RT Core,可提升光线追踪和 AI 性能。在媒体处理方面,它包含一个第九代 NVIDIA 编码器 (NVENC) 和一个第六代 NVIDIA 解码器 (NVDEC)。RTX 5 配备 4GB GDDR9 显存,提供 6 GB/秒的显存带宽,确保现代游戏和创意工作负载的流畅性能。
这些更新共同体现了 NVIDIA 的战略,即通过庞大的云网络或专用的高性能桌面系统,使强大的 AI 工具和计算资源更容易获得,确保各种规模的开发人员都能参与 AI 革命。
参与 StorageReview
电子报 | YouTube | 播客 iTunes/Spotify | Instagram | Twitter | TikTok | RSS订阅