出品 | 搜狐科技
作者 | 梁昌均
编辑 | 杨锦
1月6日,被誉为“科技春晚”的国际消费电子展(CES 2026)在美国拉斯维加斯启幕。英伟达CEO黄仁勋发表首场重磅演讲,披露在AI上的最新布局。
老黄这次再次穿上了亮飒飒的鳄鱼皮皮衣,重头戏是介绍最新“算力核弹”——新一代Vera Rubin平台的进展。
作为英伟达新一代超级计算机平台,Vera Rubin整体AI性能达100 PetaFLOPS,推理性能是前代产品的5倍,目前已投产。
他还宣布了英伟达在物理AI、开源等方面的布局,推出世界上首个会思考、会推理的自动驾驶模型Alpamayo。他判断,物理AI的ChatGPT时刻会很快到来。
最新架构芯片Vera Rubin进入量产,推理性能是前代五倍
在一个半小时的演讲中,黄仁勋压轴介绍了最新一代架构芯片Vera Rubin的进展。该命名来自美国天文学家薇拉·鲁宾(Vera Rubin),是明确证实暗物质存在的科学家。
“Vera和Rubin的设计正是为了应对一个根本性挑战:AI所需的计算量正在急剧飙升,因为模型规模每年都在以大约10倍的数量级增长。”
黄仁勋认为,目前AI领域的竞争依然异常激烈,大家都想达到更高的水平,而这归根结底是计算问题。
“计算得越快,就能越早到达下一个前沿。因此,我们决定必须每年都将计算技术的前沿向前推进。”
他透露,英伟达现在已全面投入GB300的大规模制造,而Vera Rubin架构芯片已进入量产阶段,也是全球首款采用台积电新工艺制造的芯片。
英伟达称,这款产品将于今年下半年由合作伙伴推出,微软Azure和CoreWeave等将率先部署。
据介绍,Vera Rubin超级计算机是一个由6颗不同芯片组成的系统,通过极致协同设计被整合为整体,包含Vera CPU、Rubin GPU等,整体AI性能可达100 PetaFLOPS,黄仁勋称其为“迈向下一个前沿的巨大飞跃”。
他还解释了Vera Rubin架构的设计思路。摩尔定律的增长曲线已大幅放缓,每年所能获得的晶体管数量,根本无法跟上模型每年10倍的增长速度,也无法跟上每年5倍的token生成量增长,更无法跟上token成本每年高达10倍的激进下降趋势。
“除非采用极致的协同设计,即同时在整个芯片栈的所有层面进行创新,否则整个行业将无法继续前进。这就是为什么我们这一代别无选择,只能重新设计每一颗芯片。”黄仁勋表示。
从Vera Rubin平台来看,Vera CPU采用全新Olympus架构,拥有88个Arm核心,并以每秒1.8TB的速度连接Rubin GPU,训练和推理性能是前代Grace CPU的两倍。
Rubin GPU则搭载第三代Transformer引擎,是首款集成HBM4内存的GPU,推理性能高达50 PetaFLOPS,训练算力达35 PetaFLOPS,分别是Blackwell GPU的5倍、3.5倍,但其晶体管数量仅为前代产品的1.6倍。
同时借助最新的网络和芯片互联等技术,英伟达打造了最新的超级计算机机架Vera Rubin NVL72,创造出一个拥有220万亿晶体管和3.6 ExaFLOPS推理性能的单机架级处理器,同时存储容量、带宽内存等实现了倍数提升,整体重量约两吨。
在性能方面,黄仁勋对比了Rubin NVL72相较BlackwellNVL72在训练效率、工厂吞吐量、推理成本三个维度的提升。
以拓展到10万亿参数的模型DeepSeek++和Kimi k2-Think为例,Rubin NVL72仅使用1/4 GPU就完成相同训练任务,吞吐量提升 10倍,token成本降至 1/10。
“这是新一代机柜,这正是真正开启MGX系统的革命。”黄仁勋提到,英伟达推动了行业标准系统化,以便整个生态系统和供应链都能围绕高达8万个组件实现标准化,使得组装时间从原来的两个小时缩短到5分钟。
“英伟达现在构建的是完整的系统,正在从芯片到基础设施,再到模型和应用,全面重塑AI。”他表示。
开源模型规模将超闭源模型,物理AI的ChatGPT时刻即将到来
在演讲中,黄仁勋还分享了他对AI和计算的最新观点。他认为,应用程序将构建在AI之上。“起初人们认为AI本身就是应用程序,事实上AI确实是应用程序,但也将会在AI的基础上构建应用程序。”
同时,运行软件、开发软件的方式也发生了根本性的改变,不再“编程”软件,而是“训练”软件。
“这意味着,过去十年价值约10万亿美元的计算基础设施,正在被现代化改造。这种全新的计算方式,意味着每年有数千亿美元的风险投资涌入。人们会问,钱从哪里来?答案就在这里:通过将研发预算从传统方法转向人工智能方法,以及涌入的巨额投资。”
他回顾称,2025年确实是非凡的一年。第一个有影响力的语言模型BERT,到Transformer架构问世,再到2022年底ChatGPT时刻到来,以及OpenAI推出首个推理模型o1,发现了测试时扩展定律,和预训练、后训练推动着算力的持续激增。
“人工智能的每一个阶段都需要海量的算力,而计算定律仍在持续扩展,大型语言模型也在不断变得更好。同时,智能体模型也在2025年开始涌现。”
黄仁勋还提到,自己最喜欢的一个智能体模型是Cursor,它彻底改变了英伟达进行软件编程的方式,AI系统将从此真正起飞。
“去年发生的另一件最重要的事情,就是开源模型的进步,真正地革新了人工智能。当开源、开放式创新在全球每一家公司、每一个行业被激活时,AI将无处不在。”
黄仁勋再次提到了DeepSeek-R1,称“它令世界感到惊讶,并激发了整个AI浪潮”。
他表示,当今世界的大模型格局,OpenAI是领先的token生成者,第二大阵营则是开源模型。“开源模型也已达到前沿水平,尽管仍比最前沿的闭源模型落后大约六个月,但每隔六个月就会有新模型涌现。”
同时,他预测,随着时间推移,由于有如此多的公司、研究人员以及各种不同领域的模态,开源模型的规模将会远远超过其他所有模型。
英伟达同样在开源领域持续布局。“我们构建了自己的DGX云,很多人问,你们是要进入云计算业务吗?答案是否定的,我们构建这些DGX超级计算机是为了自用,是为了开发我们的开源模型。”黄仁勋提到。
据介绍,英伟达2025年在Hugging Face上贡献了650个开源模型和250个开源数据集,包括物理模型Earth-2、智能体模型Nemotron、世界模型Cosmos、机器人系统Isaac GR00T等多个领域。
“我们不仅开源模型,还开源用于训练这些模型的数据,因为只有这样,你才能真正信任这些模型是如何诞生的。”黄仁勋表示,未来英伟达将继续这样做,甚至加速推进。
同时,他还认为,智能体的发展应该是多模态的,而且是多云和混合云的。使用预训练的、专有的前沿语言模型,将其与定制的语言模型结合到到智能体框架、推理框架中,从而能够访问工具和文件,甚至可能连接到其他智能体,这基本上就是开发现代AI应用程序的架构。
“我们将这个完整的框架称为蓝图(Blueprint),并已经将这些蓝图集成到全球各地的企业SaaS平台中。”
黄仁勋表示,英伟达已与Palantir、Snowflake、CrowdStrike等企业合作。
他强调称,这不仅仅是现在开发应用程序的方式,还将成为企业平台的用户界面。“智能体系统就是界面,与平台交互的方式变得更加简单,就像你与人交流一样。”
在智能体浪潮之后,黄仁勋一直将物理AI视为下一波浪潮。黄仁勋再次提到了经典的三台计算机:为了让AI能够学习物理世界的常识和规律,需要为训练AI模型而构建的计算机、用于模型推理的计算机以及专门为仿真设计的计算机。
“现在对于物理AI,我们必须做的最重要的一件事,就是创建用于训练AI的数据。但这些数据从何而来?”
黄仁勋认为,物理AI的ChatGPT时刻即将到来,但挑战显而易见。
物理世界是多样且不可预测的,收集现实世界的训练数据既缓慢又昂贵,而且永远不够,因此答案就是合成数据。通过使用基于物理定律、基于真实数据进行约束和引导的合成数据生成技术,则可以有选择地、巧妙地生成数据,然后用这些数据来训练AI。
英伟达的Cosmos——一个面向物理AI的开放前沿世界基础模型正是由此而生,已被下载数百万次,英伟达自己也在用它来创建自动驾驶汽车的场景生成和评估。
在此基础上,黄仁勋还宣布推出世界上首个会思考、会推理的自动驾驶模型Alpamayo,并对外开源。梅赛德斯-奔驰成为英伟达合作方,搭载该模型的自动驾驶汽车今年将陆续上市。
该模型通过端到端训练,不仅能接收传感器输入并驱动方向盘、刹车和油门,还能推理它即将采取的行动,以及做出该决定的理由,从而解决自动驾驶的“长尾”问题,并开发了两个自动驾驶栈,使得安全系统具备多样性和冗余性。
“我们设想,未来道路上将有十亿辆汽车实现自动驾驶。每一辆车都将具备自动驾驶能力,每一辆车都将由AI驱动。”
黄仁勋认为,从非自动驾驶汽车到自动驾驶汽车的拐点,很可能就发生在接下来的十年左右,这将是首个大规模的主流AI物理AI市场。
物理AI另一个重要领域则是机器人。黄仁勋再次邀请了两台萌萌的瓦力机器人上台,与其交流互动,并表示英伟达已与波士顿动力、Agility Robotics、Serve Robotics、LG等企业达成合作。
上一篇:无锡公安持续领跑“科创赛道”
下一篇:智能成果 普惠共享