黄仁勋在2026年CES上宣布Vera Rubin:全新AI计算平台为行业带来突破

经过五年未在CES推出消费级显卡后,NVIDIA的CEO黄仁勋将焦点转向了另一个目标——推出Vera Rubin计算平台,这是一套重达2.5吨的AI服务器系统,旨在加速下一代AI模型的训练。这不仅仅是硬件产品,更是一项旨在改变企业构建和部署AI基础设施的全面战略。

黄仁勋在48小时内出席了三场活动,从NVIDIA Live到与西门子合作的工业AI,再到联想TechWorld大会。他的核心信息:过去十年投资的价值约10万亿美元的计算资源亟需全面升级。

Vera Rubin——六芯片集成架构,超越Blackwell

Vera Rubin打破了NVIDIA内部的规则。不同于每一代只更换1-2颗芯片,这次公司同时设计了六种不同芯片,已进入批量生产阶段。原因在于传统的性能提升方式已无法跟上AI模型每年10倍的增长速度,尤其是在摩尔定律放缓的背景下。

NVIDIA的选择是“极限协同设计”——在芯片和整个平台的各个层面同步创新。Vera CPU集成了88个定制的奥林匹斯核心,支持176个工作线程,配备1.5TB系统内存和1.2TB/s的LPDDR5X带宽——是Grace一代的3倍。Rubin GPU在推理性能方面达到50 PFLOPS(Blackwell的5倍),拥有3360亿晶体管,集成第三代Transformer引擎,支持动态调整精度。

为了连接这些组件,NVIDIA部署了ConnectX-9(800 Gb/s网络卡)、BlueField-4 DPU(AI存储的端到端处理器)、NVLink-6交换芯片(支持18个节点,最多72个Rubin GPU协同工作)以及光纤以太网Spectrum-6交换芯片(512通道,每通道200 Gbps)。

性能飞跃:从训练到推理

Vera Rubin NVL72系统带来了令人震撼的数字。在NVFP4推理任务中,性能达3.6 EFLOPS,是Blackwell的5倍。在训练方面,性能达到2.5 EFLOPS,是原来的3.5倍。LPDDR5X内存容量提升至54TB(3倍),HBM内存达到20.7TB,HBM4带宽达1.6 PB/s(提升2.8倍)。

尤其值得一提的是,尽管性能大幅提升,晶体管数量仅增加1.7倍(达220万亿),显示出NVIDIA在半导体工艺优化方面的实力。训练参数达10万亿的模型,Vera Rubin所需系统数量仅为Blackwell的四分之一,构建一个Token的成本也只有十分之一。

最关键的是吞吐量(每瓦每美元完成的AI Token数)比Blackwell提升了10倍。对于一个价值500亿美元的千兆瓦级数据中心,这意味着其营收能力将翻倍——每一美元投资带来的价值也将翻倍。

从43根线缆到0线:海外装配技术创新

Vera Rubin在技术设计上也实现了突破。过去,一个超算节点需要连接43根线缆,组装耗时2小时,容易出错。而现在,Vera Rubin节点使用0根线缆,仅需6个液冷管,组装时间缩短到5分钟。

服务器背后铺设了近3.2公里的铜线,5000根铜缆组成的NVLink主网传输速度达400 Gbps。黄仁勋幽默地说:“可能重达几百公斤,你得是非常强壮的CEO才能搞定。”

无限KV缓存:上下文存储不再成为瓶颈

AI的一个大问题是长对话中,“KV Cache”(键值缓存——AI的“任务记忆”)会占满HBM内存。Vera Rubin的解决方案是在服务器机架中部署BlueField-4处理器,专门管理KV Cache。

每个节点配备4个BlueField-4,每个附加150TB的上下文存储,分配给GPU,每个GPU额外配备16TB内存——而GPU本身只有约1TB的内存。关键是带宽仍保持200 Gbps,数据传输速度不受影响。

Spectrum-X:专为AI生成的专用网络,节省50亿美元

为了让“笔记”在数十个服务器架、数万GPU间协同如同单一存储,网络必须既大又快又稳定。Spectrum-X是全球首个由NVIDIA推出的“专为AI生成”设计的端到端以太网平台,采用TSMC的COOP工艺和硅光技术,支持512通道×200 Gbps。

黄仁勋估算:一个价值500亿美元的千兆瓦级数据中心,使用Spectrum-X后吞吐量提升25%,节省约50亿美元。“可以说,这个网络系统几乎是‘免费’的。”

计算安全:全链路数据加密

Vera Rubin支持Confidential Computing(机密计算),所有数据在传输、存储、计算过程中都被加密,包括PCIe、NVLink、CPU-GPU通信和其他总线。企业可以放心将模型部署到外部系统,无需担心数据泄露。

物理AI:从机器人到自动驾驶,聚焦现实世界

黄仁勋特别强调“物理AI”的架构——由GPU构建的训练机、部署在机器人或汽车上的“小脑”推理机,以及提供虚拟训练环境的模拟机(Omniverse和Cosmos)。基于此架构,NVIDIA推出了Alpamayo——首个具备思考和推理能力的自动驾驶模型。不同于传统自动驾驶,Alpamayo是端到端训练系统,能解决“长尾问题”。面对复杂交通场景,Alpamayo不仅执行硬编码指令,还能像人类司机一样推理。

搭载Alpamayo技术的梅赛德斯-奔驰CLA将于今年第一季度在美国正式亮相,随后推向欧洲和亚洲市场。这款车被NCAP评为全球最安全的汽车,采用“安全堆叠”设计——当端到端AI模型不够自信时,系统会立即切换到更传统、更稳定的安全模式。

在舞台上,黄仁勋邀请人形机器人、四足机器人如Boston Dynamics、Agility等进行表演。他强调,最大的机器人其实就是工厂。所有机器人都将配备Jetson微型计算机,在Omniverse平台的Isaac Simulator中进行训练。NVIDIA也在将这项技术融入工业生态系统,如Synopsys、Cadence、Siemens。

开源模型:NVIDIA的战略选择

黄仁勋特别赞扬开源社区。他表示,去年DeepSeek V1的突破直接推动了整个行业的发展。幻灯片上,Kimi K2和DeepSeek V3.2分别是第一和第二开源模型。

虽然目前开源模型比顶尖模型落后约6个月,但每6个月就会出现新模型。这种快速迭代让创业公司、巨头和研究机构都不愿错过,包括NVIDIA自己。

他们这次不仅仅是卖“铲子”或显卡,而是构建了DGX Cloud超级计算平台,开发了如La Proteina(蛋白质合成)和OpenFold 3等先进模型。NVIDIA的开源生态涵盖生命科学、物理AI、智能代理、机器人和自动驾驶等多个领域。

许多NVIDIA的Nemotron系列开源模型也成为亮点,包括语音、多模态、增强生成和安全模型,在多个排行榜上表现优异,已被众多企业应用。

未来:从虚拟世界到现实世界的战略布局

过去,NVIDIA主要为虚拟世界制造芯片。现在,黄仁勋明确将焦点转向物理AI——以自动驾驶和机器人为代表,进入更激烈的实体世界竞争。

在AI泡沫争议中,除了推出Vera Rubin超算平台缓解算力焦虑外,黄仁勋还大量投入应用和软件开发。目标是让我们直观感受到AI的变革——从更安全的自动驾驶到具备推理能力的机器人。

归根结底,只有当战场转向现实世界,武器才能持续销售。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 评论
  • 转发
  • 分享
评论
0/400
暂无评论