
英伟达狂甩AI干货,晒5大芯片路线图,推“机器人大脑”,10亿美元入股诺基亚。
作者 | ZeR0
编辑 | 漠影
英伟达一夜杀疯了,连甩多项重磅发布,还把市值一度送到了5万亿美元。
芯东西10月29日报道,截至美股最新收盘,英伟达股票创历史新高,达到201美元/股,市值达4.89万亿美元。在夜盘交易中,英伟达股价超过206美元/股,市值突破5万亿美元,创造新的历史时刻——史上第一家5万亿美元企业诞生!

不出意外,今晚我们就可以见证英伟达市值正式踏过5万亿美元大关了。
今日,在华盛顿举行的GTC大会上,英伟达火力全开,面向AI、量子计算、开源模型、美国制造、企业计算、机器人、6G等七大领域哐哐发新品、甩干货。
新品包括新一代DPU芯片BlueField-4、机器人计算平台NVIDIA IGX Thor、AI工厂蓝图Omniverse DSX、加速量子计算的高速互连技术NVIDIA NVQLink,还有全新产品线NVIDIA Aerial电信计算平台。
同时,英伟达宣布向全球第二大电信设备制造商诺基亚投资10亿美元(约合人民币71亿元),获得诺基亚2.9%股权。消息公布后,诺基亚股价一度大涨29%。

英伟达创始人兼CEO黄仁勋再秀顶级科技带货实力,详细讲解为什么英伟达架构是业界“最稳妥”的选择,还透露英伟达两代GPU将在2026年实现累计高达5000亿美元(约合人民币3.55万亿元)的业务收入。
他还披露了下一代Vera Rubin超级芯片的部分规格:内置6万亿颗晶体管,配备2TB高速内存,AI算力高达100PFLOPS。1个Vera Rubin计算托盘有2块Vera Rubin超级芯片,能提供200PFLOPS的AI算力。
还有专为大规模上下文AI推理设计的新型GPU——Vera Rubin CPX(上下文处理器)。其计算托盘AI推理性能达到440PFLOPS。
在主题演讲中,黄仁勋展示了一张英伟达全景路线图,上面有英伟达要做的所有芯片及网络产品:

这张图可以说是教科书级的数据中心基建产品规划了。
“你不可能只用一个芯片就能让计算机的速度提高10倍。”他谈道,要实现10倍提升,唯一的办法就是极致协同设计,同时推进所有这些不同芯片的研发。
在主题演讲中,黄仁勋非常清晰地阐述了英伟达发展的重点方向:
如果你想了解前沿AI市场的风向,那么黄仁勋最新的这场主题演讲,绝对值得仔细研读。
总体来看,英伟达今日在GTC大会的发布涉及如下要点:
1、AI计算:晒战绩,订单簿上已经躺了价值5000亿美元的业务,规划的Blackwell出货量高达2000万块GPU。
2、极致协同设计:晒实力,披露Vera Rubin超级芯片、Vera Rubin上下文处理器及相关计算托盘配置信息,AI算力多达440PFLOPS。
3、DPU:发布BlueField-4 DPU,为新型AI存储平台设计,支持800Gb/s吞吐量。
4、机器人:推出基于Blackwell架构的IGX Thor机器人计算平台,提供5581 FP4 TFLOPS的AI算力,支持400GbE连接,AI计算性能可达到其前代产品IGX Orin的8倍之多;宣布富士康建设先进机器人设施。
5、汽车:介绍Drive Hyperion自动驾驶开发平台,宣布与Uber合作,将支持Uber无人出租车。
6、AI工厂:发布蓝图Omniverse DSX,首次将建筑、电力和冷却系统与英伟达的AI基础设施堆栈进行协同设计,帮企业更快构建和运营千兆AI工厂。
7、美国制造:Blackwell芯片已在美国全面量产,未来英伟达AI工厂将全部在美国本土制造,美国能源部宣布与英伟达合作共建7台全新AI超级计算机。
8、开源模型:新语言模型、世界模型和机器人模型、生物医学模型、数据集、无线通信软件通通开源。
9、6G:宣布与诺基亚建立战略合作,推出支持6G的电信计算平台NVIDIA Aerial ARC。
10、量子计算:发布NVLink量子互连架构NVIDIA NVQLink,将GPU与QPU(量子处理器)高速互连,实现量子硬件与计算系统之间数TB级数据交换。
除了诺基亚外,英伟达也宣布了与无人出租巨头Uber、医药巨头礼来、AI平台软件巨头Palantir等多家企业的合作。
黄仁勋与多个代表性人形机器人的合影,已经是GTC大会结束前的经典节目。

退场时,GTC屏幕还播放了这些人形机器人跳舞的彩蛋视频。

这周黄仁勋行程相当繁忙,马上要见美国总统特朗普,还要到韩国参加APEC会议中的工商领导人会峰会,并出席GeForce显卡在韩国上市25周年的庆典。
美国总统特朗普周二在日本东京对商界代表发表讲话时,透露将于周三会见黄仁勋。
另据外媒报道,黄仁勋计划在本周访问韩国期间公布向三星、现代汽车等韩国科技巨头供应AI芯片的新合同,并将与SK海力士高管会面。
上次黄仁勋去韩国,还是在15年前出席《星际争霸2》全球发布会。所以业界相当期待黄仁勋这次时隔已久的韩国之旅,能释放关于HBM芯片、智能汽车的猛料。
甭管如今AI泡沫炒得有多大,能站上5万亿美元,英伟达靠的刷子,可远不止两把。
01.
AI计算:力荐英伟达架构“最稳妥”,
订单簿已躺5000亿美元
或许是感受到AI芯片竞争的暗潮汹涌,在今日GTC大会上,黄仁勋长篇大论地细数了英伟达的种种价值:
“英伟达是当今世界上唯一一家能够真正从零开始,同时思考全新计算机架构、新芯片、新系统、新软件、新模型架构以及新应用的厂商。”
为了论证英伟达产品多强,黄仁勋连Semi Analysis的基准测试都搬出来了,说他们测试了几乎所有可评测的GPU,其中真正能进行有效对比的GPU,90%都来自英伟达。

“世界上性能第二好的GPU是英伟达H200,”黄仁勋说,“而我们的英伟达Grace Blackwell,每块GPU的性能达到了H200的10倍。”
当晶体管数量只增加1倍,怎么实现10倍的性能提升?
英伟达的答案是极致协同设计。
“世界上最便宜的token,是由Grace Blackwell + NVL72生成的。”黄仁勋解释道,GB200虽然成本高,但它token生成能力强啊,拿每秒钟生成的token数量除以总拥有成本(TCO)后,它的性价比就体现出来了,是“生成token成本最低的方式”。
因此,英伟达既有高性能(10倍提升),又达到低成本(降到1/10),这个正向循环可以持续下去。
说到成本,黄仁勋提起六家云服务商(亚马逊、CoreWeave、谷歌、Meta、微软、甲骨文)计划投入的巨额资本支出。

这么大的客单,英伟达显然要牢牢抓住。
黄仁勋说,现在时机再好不过了,英伟达已实现Grace Blackwell + NVL72的大规模量产,全球供应链都已准备就绪,可以立即向这些云厂商交付基于新架构的产品,让它们的资本支出投入到能提供最佳TCO的计算设备上。
他还强调,英伟达的GPU是唯一一块既能支持传统计算任务、又能支持AI的GPU。ASIC(专用集成电路)也许能做AI,但它做不了其他任务。而英伟达的方案能覆盖全部,这也说明了为什么选择英伟达的架构是最稳妥的。
“据我所知,我们可能是历史上第一家,能够清晰看到未来累计高达5000亿美元Blackwell相关业务(包括Rubin早期出货)的公司,时间跨度覆盖到2026年。”黄仁勋透露,“要知道,2025年还没结束,2026年还没开始,但我们的订单簿上已经有这么多了——价值5000亿美元的业务。”

截至目前,英伟达已在最初几个季度(大概是头四个季度,确切说是三个半季度)出货了600万块Blackwell GPU芯片。接下来五个季度,还有5000亿美元的业务量。这相当于Hopper整个生命周期5倍的增长速度。
Hopper在其整个生命周期里,一共出货了400万块GPU。这里说的Hopper生命周期,还不包括中国及其他亚洲市场,仅指西方市场。
而每块Blackwell实际上内部封装了两块GPU。在Rubin早期阶段,英伟达规划的Blackwell出货量高达2000万块GPU,增长极其惊人。
02.
极致协同设计:Vera Rubin超级芯片AI算力达100P,还有长下文推理专用GPU
每年,英伟达都会推出极致协同设计系统,持续推动性能提升,持续降低token生成成本。
英伟达率先将计算规模扩展至整个机柜级,通过发明一种新型AI以太网技术实现了横向扩展,其Spectrum-XGS以太网可将多个数据中心连接,实现十亿瓦级扩展。
通过这种方式,英伟达实现了极高程度、极致的协同设计(extreme co-design)。

“这是我们有史以来构建的、最为极致的协同设计计算机,坦白说,也是现代以来首次像这样从零开始、彻底重构的计算机。这个系统的研发极其艰难。”黄仁勋说。
他现场展示了基于NVL72架构的“Blackwell硅盾”,有点像美国队长的盾牌。

AI模型正变得无比庞大。英伟达的解决方法是在NVL72机架级系统上运行混合专家(MoE)模型。
将这个由数万亿参数构成的巨大AI模型拆分成多个“专家”,这些专家各自擅长处理某些特定类型的问题,把这些专家部署在GPU上。
NVL72可将所有芯片连接到一个庞大的互连网络,让每个专家都能互相通信。其中,主专家可以与所有执行实际工作的专家交流,传递所有必要的上下文、提示词,以及封装成token的数据。被选中解答问题的专家,会逐层去尝试生成回答。

每块GPU的HBM带宽是有限的。在英伟达NVL72系统中有72块卡,1块GPU只需服务4个专家。
相比之下,其他系统每台计算机只能容纳8块GPU,因此每块GPU上不得不塞入32个专家。也就是说,这块GPU要为32个专家进行推理。
因此NVL72系统能带来相当可观的速度提升。
黄仁勋还展示了英伟达第三代NVL72机架级计算机,完全无缆。当英伟达还在交付GB300时,Rubin已准备进入量产。
新一代Vera Rubin超级芯片内置6万亿颗晶体管,配备2TB高速内存,AI算力达到100PFLOPS,是9年前交付给OpenAI的DGX-1超级计算机算力的100倍。

一台Vera Rubin计算机,就能替换以前的25个机架。

Vera Rubin超级芯片的计算托盘安装起来极其简单,只需翻开卡扣,直接插进去就行。该计算托盘共有12万亿颗晶体管,可提供200PFLOPS AI算力。

如果你想添加一个特殊处理器,英伟达也提供了新的选择——上下文处理器(CPX)。
因为给AI输入的上下文信息越来越多,比如在回答问题之前,可能要读取大量PDF文件、查阅大量存档论文、观看大量视频,提前学习这些内容,所有这些上下文处理需求,都可以通过这个专为大规模上下文AI推理设计的新型GPU来满足。
Vera Rubin CPX计算托盘内置百万token级上下文加速器,AI推理性能达到440PFLOPS。

在托盘底部,有8个ConnectX-9(CX9)、新一代SuperNIC、8个CPX GPU、BlueField-4 DPU、2个Vera CPU以及4个Rubin封装模块(也就是8块Rubin GPU)。所有这些组件都集成在这个单一节点中,完全无缆化设计,并采用100%液冷散热。
03.
BlueField-4 DPU:
800Gb/s吞吐量,支持4倍大的AI工厂
AI需要越来越多的内存,记住各种对话、学习种种内容的记忆需求会产生KV缓存(Key-Value缓存)。如今每次访问AI系统,刷新和检索之前的对话内容,花费的时间越来越长。
而解决这个问题,需要一种新处理器,它就是BlueField-4。
NVIDIA BlueField-4数据处理单元(DPU)支持800Gb/s的吞吐量,并实现高性能推理处理,预计将于2026年作为英伟达Vera Rubin平台的一部分提前推出。
BlueField-4专为新型AI存储平台打造,结合了英伟达Grace CPU和ConnectX-9网络,可提供6倍的算力,并支持比BlueField-3大4倍的AI工厂,可加速千兆级AI基础设施。

该DPU还具有多租户网络、快速数据访问、AI运行时安全性和云弹性,并原生支持NVIDIA DOCA微服务,可在单一统一框架内实现多种网络、安全、存储服务的无缝集成和管理。
专为NVIDIA Spectrum-X以太网打造的ConnectX-9 SuperNIC提供超低延迟、800Gb/s网络,可加速数据传输、优化RoCE性能,提升千兆级AI基础架构的效率。
思科、DDN、戴尔科技、HPE、IBM、联想、Supermicro、VAST Data、WEKA等服务器和存储企业正在使用BlueField构建下一代服务器和AI存储平台,并计划采用BlueField-4。
04.
“机器人大脑”AI算力飙8倍,
支持400GbE连接
面向新兴的物理AI领域,英伟达今日推出一款由Blackwell架构提供支持的机器人计算平台NVIDIA IGX Thor。
该平台搭载两种英伟达Blackwell GPU——集成GPU(iGPU)和独立GPU(dGPU),可提供5581 FP4 TFLOPS的AI算力,并支持400GbE连接。
与上一代IGX Orin相比,IGX Thor在iGPU上可提供高达8倍的AI算力,在dGPU上可提供高达2.5倍的AI算力,并提供2倍的连接能力,能够在边缘无缝运行大语言模型和视觉语言模型。

▲NVIDIA Jetson IGX Thor开发者套件Mini
这款工业级边缘AI平台,旨在将实时物理AI直接带到工业、医疗、机器人等边缘计算应用领域,将高速传感器处理、企业级可靠性和功能安全性结合在一个用于桌面的小型模块中。
该平台拥有10年的生命周期,并长期支持英伟达AI软件栈。
此外,IGX Thor集成了NVIDIA Halos全栈安全系统的元素,将功能安全嵌入到机器人、医疗和工业AI系统中,确保实现人机安全协作。
黄仁勋说,物理AI需要三台计算机。
这三台计算机都运行英伟达CUDA。
美国正在经历再工业化,各个行业都在推动制造业回流。
在美国得克萨斯州休斯顿,富士康正在建设一个先进的机器人设施,用于制造英伟达的AI基础设施系统。

英伟达正与迪士尼研究团队基于一项名为Newton的技术,共同开发一个全新的框架和模拟平台。Newton模拟器让机器人能够在具有物理感知的环境中学习如何成为一个优秀的机器人。

05.
众多车企采用Drive Hyperion,
与Uber合作直指10万辆无人车
人形机器人仍处于研发阶段。但与此同时,有一种机器人已经明显处于发展的拐点,那就是轮式机器人——机器人出租车(Robotaxi)。
黄仁勋认为,机器人出租车本质上就是一个“AI司机”。
他将英伟达Drive Hyperion架构的诞生,称作“一项重大突破”。英伟达打造这一架构,是为了让全球每一家汽车公司,无论是生产商用车、乘用车,还是专门用于机器人出租车的车辆,都能够制造出具备机器人出租车功能的汽车。
其配备的环绕摄像头、雷达和激光雷达等传感器套件,使英伟达能够实现最高级别的环绕感知和冗余,从而确保最高级别的安全性。
目前,Drive Hyperion架构已被应用于Lucid、梅赛德斯-奔驰等汽车品牌,未来还会有更多汽车品牌加入。

有了这个标准平台,众多自动驾驶系统开发者就能够将自己的自动驾驶系统部署到这个标准底盘上。
这个标准底盘实际上已经成为了一个“车轮上的计算平台”。
黄仁勋分享了一些数据:未来,全球每年行驶的里程将达到万亿英里,每年生产的汽车数量将达到1亿辆,全球约有5000万辆出租车,而机器人出租车将进一步扩充这一市场。
今日,英伟达与Uber宣布合作,将英伟达Drive Hyperion接入Uber全球网络。
Uber将采用NVIDIA Drive AGX Hyperion 10自动驾驶开发平台,计划从2027年开始扩大将其全球自动驾驶汽车数量增加到10万辆,并由基于英伟达Cosmos平台构建的联合AI数据工厂提供支持。
DRIVE AGX Hyperion 10的核心是2个基于NVIDIA Blackwell架构的DRIVE AGX Thor车载平台。每个平台均提供超过2000 FP4 FLOPS(1000 TOPS INT8)的实时算力。

“未来,你将能够轻松呼叫这些汽车,整个生态系统将非常丰富,全球各地都将出现Hyperion或机器人出租车。这将成为我们的一项新计算平台,我预计它会取得巨大成功。”黄仁勋撂下预言。
06.
手把手教你建AI工厂,
英伟达掏出模块化组合图纸
AI工厂是英伟达未来增收的一大宏图伟业。
黄仁勋说,AI工厂本质上只做一件事,就是运行AI,目的是生产尽可能有价值的token,以极快速度、低成本地生产高价值的token。
为了加快十亿瓦级AI工厂建设和部署,英伟达专门打造了一个NVIDIA Omniverse DSX蓝图,提供了将AI工厂从1亿瓦扩展至几十亿瓦的通用架构。
该蓝图通过可模拟、优化并用于运营的单一数字孪生环境,搭配使用各种预制模块,快速设计、组装、验证和扩展AI工厂,最大限度地提高整个计算架构的GPU生产力和能效。

DSX有三大支柱:
这是首次将建筑、电力和冷却系统与英伟达的AI基础设施堆栈进行协同设计。
它始于Omniverse数字孪生。工程和建筑合作伙伴Jacob的工程团队可以设计建筑物,优化计算密度和布局,根据功率限制实现最大化token吞吐量。
Jacobs工程师将从西门子、施耐德电气、Trane、Vertiv等合作伙伴的电力、电气和冷却设备的SimReady OpenUSD资产整合到PTC的产品生命周期管理系统中,使跨职能团队能够实时协作制作逼真的3D模型,通过共享的、版本控制的产品数据加速设计决策,并降低开发风险。

然后,使用来自EAB和Cadence的CUDA加速工具模拟热力和电气系统。
虚拟设计完成后,英伟达合作伙伴会提供工厂制造、测试并可随时插入的预制模块,大大缩短构建时间,加快创收。
一旦实体AI工厂上线,数字孪生就可以用作一个操作系统,来监控、检查和进一步优化流程。
工程师可以向已在数字孪生环境中训练过的AI智能体发出指令,能够优化功耗,减轻AI工厂和电网的负担。
总体而言,对于一个千兆瓦级AI工厂,DSX优化方案每年可在得克萨斯州、佐治亚州和内华达州等地带来数十亿美元的额外收入。
该蓝图已在英伟达位于美国弗吉尼亚州马纳萨斯Digital Realty工厂的新AI工厂研究中心得到验证,利用DSX对Vera Rubin从基础设施到软件进行测试和产品化。

“在Vera Rubin还未成为实体计算机之前,我们早就将其作为数字孪生计算机来使用了。”黄仁勋说,在这些AI工厂还未建成之前,英伟达就会对其进行设计、规划、优化,并以数字孪生的形式进行运营。
07.
Blackwell已在美国实现全面量产,
美国能源部官宣7台AI超算
黄仁勋宣布,英伟达Blackwell芯片已在美国亚利桑那州实现全面量产,从亚利桑那州和印第安纳州的硅晶圆,到得克萨斯州的整机系统,未来的英伟达AI工厂将全部在美国本土制造,为美国历史和工业书写新的篇章。
“AI时代,正推动美国回归制造业,重启再工业化进程。AI时代已经来临,这些产品:美国制造,服务全球。”黄仁勋说。
美国能源部与英伟达合作,共同建设7台全新的AI超级计算机,以推动美国科学事业的发展。

英伟达与甲骨文、美国能源部合作打造的美国能源部最大AI超级计算机Solstice将配备创纪录的10万块英伟达Blackwell GPU。
另一个系统Equinox将包含1万块Blackwell GPU,预计将于2026年投入使用。
这两个系统都将位于阿贡国家实验室,并通过英伟达网络互连,并提供总计2200EFLOPS的AI性能。

英伟达还推出适用于政府的AI工厂参考设计,旨在帮助构建和部署新的AI平台和智能体。
08.
八、大举开源,推全新语言、
机器人、生物、电信开源技术
在黄仁勋看来,开源非常重要,美国也必须在开源领域占据领先地位。
英伟达致力于推动开源模型的发展,在开源领域贡献巨大,有23个模型登上顶级排行榜,涵盖多个不同领域。
黄仁勋说,英伟达拥有排名第一的语音模型、排名第一的推理模型、排名第一的物理AI模型,模型的下载量也非常可观。

英伟达将其模型、数据和训练框架贡献给Hugging Face,已提供超过650个开源模型和250个开源数据集。
其开源模型包括用于数字AI的NVIDIA Nemotron、用于物理AI的Cosmos、用于机器人的Isaac GR00T和用于生物医学AI的Clara等。
英伟达进一步坚定了对开源的承诺,推出用于语言、机器人、生物医学、电信的全新开源AI技术。
1、语言模型
NVIDIA Nemotron系列中最新开源模型整合了查看、检索、生成、推理等功能,使开发者能够构建专业化的智能体。
英伟达还发布了新的开源Nemotron数据集,涵盖多模态训练、多语言角色和隐私保护的合成个人信息,用于专业模型开发。
此外,全新NVIDIA NeMo工具,包括用于合成数据生成的NeMo Data Designer和用于高级后训练和强化学习的NeMo-RL ,使开发人员能够更好地控制模型定制。
2、世界基础模型和机器人模型
为了加速具有类似人类推理和认知的机器人系统的训练,英伟达对其物理AI开源模型进行了更新,包括Cosmos世界基础模型和Isaac GR00T机器人基础模型:
英伟达还发布了全球最大的物理AI开源数据集,目前包含来自美国和欧洲各地的1700小时多模式驾驶传感器数据以及GR00T训练数据。
该数据集已跻身有史以来下载次数最多的10个Hugging Face数据集之列。
Agility Robotics、Amazon Robotics、Figure AI、Skild AI、Milestone Systems、Uber等公司都在采用Cosmos或 Isaac GR00T N模型来生成合成数据、教会机器人新行为并大规模部署现实世界和物理AI智能体。
3、生物医学模型
NVIDIA Clara是一系列旨在加速科学发现、分析医学图像等的模型、工具和配方,新加入的开源模型包括:
部分NVIDIA Nemotron和Cosmos开放模型已在NVIDIA DGX Cloud上训练,现已在build.nvidia.com、Hugging Face、OpenRouter、微软Azure AI Foundry上提供,并将很快登陆Google Vertex AI Platform和其他云服务提供商。
NVIDIA Clara和Isaac GR00T已在Hugging Face上提供。
这些模型可作为NVIDIA NIM微服务使用,以便在DGX Cloud或任何英伟达加速基础设施上进行安全、可扩展的部署,以实现最大程度的隐私和控制。
4、电信Aerial软件
在电信行业,英伟达正在开源Aerial软件,并在英伟达最小AI超算DGX Spark平台上推出NVIDIA Sionna研究套件和Aerial测试平台,以加速AI原生5G和6G发展。
其此前开源的NVIDIA Sionna软件下载量已超过20万次,引用次数超过500次。
英伟达开源Aerial软件包括Aerial CUDA-Accelerated RAN、Aerial Omniverse Digital Twin (AODT)和全新的Aerial Framework。
这些资源(此前仅限于少数人使用)预计将于今年12月在GitHub上以Apache 2.0许可开放,AODT将于2026年3月发布。
09.
向诺基亚投资10亿美元,
发6G电信计算平台
黄仁勋说,电信是至关重要的国家基础设施,是经济和安全的数字神经系统,基于英伟达CUDA和AI的AI-RAN将彻底改变电信行业。
英伟达与诺基亚今日宣布建立战略合作伙伴关系,加速下一代AI原生移动网络和AI网络基础设施的开发和部署。
英伟达还将以每股6.01美元的认购价向诺基亚投资10亿美元。
诺基亚和英伟达也将在AI网络解决方案方面展开合作,并探索将诺基亚的光学技术和功能用作未来英伟达AI基础设施架构的一部分。
同时,黄仁勋宣布推出英伟达的全新产品线——NVIDIA Aerial ARC。
NVIDIA Aerial ARC全称为NVIDIA Arc Aerial RAN Computer,是一款支持6G的电信计算平台。

该平台结合了连接、计算和传感功能,使电信公司能通过软件升级从5G-Advanced过渡到6G。
Aerial ARC基于三项核心技术构建而成:Grace CPU、Blackwell GPU,以及专为这一应用设计的ConnectX/Mellanox网络技术。
这些技术结合在一起,能够运行英伟达CUDA X库中的Aerial无线通信库。
NVIDIA ARC-Pro参考设计可供制造商和网络设备提供商构建基于商用现货或专有的AI-RAN产品,支持新建和现有基站的扩展。
黄仁勋分享道,英伟达将首次打造出一个软件定义、可编程的计算机,它既能进行无线通信,又能同时进行AI处理,即NVIDIA Aerial。
诺基亚将与之合作,把NVIDIA Aerial作为未来基站的核心技术。NVIDIA Aerial还兼容诺基亚现有的Airscale基站。
据分析机构Omdia预测,到2030年,AI-RAN市场规模预计将累计超过2000亿美元。
ChatGPT每周8亿活跃用户中,近50%通过移动设备访问该网站,其每月移动应用下载量超过4000万次。
而AI-RAN系统有助于支持移动AI流量的爆炸式增长,改善消费者体验。
它还将支持未来的AI原生设备,例如无人机或AR/VR眼镜,并为集成传感和通信等6G应用做好准备。
接下来,英伟达将实现两个重要的AI-RAN功能:
诺基亚将通过基于英伟达平台的全新AI-RAN产品扩展其全球产品组合。戴尔科技提供PowerEdge服务器来支持新的AI-RAN解决方案。
英伟达还与Booz Allen、Cisco、MITRE、ODC、T-Mobile等合作伙伴合作,宣布推出美国首个适用于6G的AI原生无线堆栈,其中包括推进下一代无线技术的新应用程序。
10.
NVQLink:将GPU与QPU高速互连,
满足量子纠错高速率需求
构建量子计算机的方式多种多样,但无论采用哪种方法,所有的量子比特都面临同一个挑战:它们非常脆弱,对噪声极度敏感,精密且容易出错。
目前的量子比特通常只能稳定运行几百次操作,但要解决真正有意义的问题,则需要进行数万亿次操作。
解决方案就是量子纠错。
测量会干扰量子比特,破坏其中的信息。关键在于添加额外的量子比特,并让它们相互纠缠,这样通过测量这些额外的量子比特,就能获得足够的信息来判断错误发生在哪里,而又不会破坏我们真正关心的那些量子比特的状态。
这个思路非常巧妙,但它对传统计算能力提出了远超当前水平的要求。
量子比特非常需要复杂的校准、量子误差校正和其他控制算法才能正常运行。这些算法必须通过与传统超级计算机极其苛刻的低延迟、高吞吐量连接运行,才能控制量子比特误差并实现具有影响力的量子应用。
对此,英伟达开发了一种NVLink量子互连架构——NVIDIA NVQLink,用于将GPU计算的高性能与量子处理器(QPU)紧密结合,以构建加速量子超级计算机。
它能够直接将QPU与英伟达GPU连接起来。量子纠错需要从量子比特中读取信息,计算错误发生的位置,并将修正数据传回。而NVQLink每秒能够进行数千次这样的操作,实现量子硬件与计算系统之间数TB级数据的快速交换,满足量子纠错所需的极高速率。

“NVQLink就像连接量子和传统超级计算机的罗塞塔石碑,将它们整合成一个统一、连贯的系统,标志着量子GPU计算时代的到来。”黄仁勋说。
NVQLink将量子处理器和控制硬件系统的多种方法直接连接到AI超级计算,提供统一的交钥匙解决方案,以克服量子研究人员在扩展硬件时面临的关键集成挑战。
其实现基于两大关键能力:
首先,这个互连架构能够实现对量子计算机的控制与校准,实现量子纠错,同时连接QPU与英伟达GPU超级计算机,进行混合模拟。

其次,它具有极强的可扩展性,不仅适用于当前仅有数百个量子比特的规模,还为未来做好准备——将把量子计算机的规模从今天的几百个量子比特,扩展到几万个、几十万个,甚至更多。
因此,现有了一个面向未来的架构,它能够实现控制、协同模拟、量子纠错,并具备持续扩展的能力。
其核心是英伟达推出的开放平台——CUDA-Q,用于量子计算与GPU计算的协同。
CUDA最初是为GPU与CPU的协同加速计算而设计的,其核心理念是让不同的处理器各司其职,用对的工具做对的事。
现在,CUDA-Q已经超越了传统CPU-GPU的范畴,扩展至支持量子处理器(QPU),使得量子处理器与GPU之间能够在短短几微秒内完成数据交互与计算迁移,满足与量子计算机协同工作的极低延迟要求。
借助NVQLink和CUDA-Q,研究人员不仅能实现纠错,还能协调量子设备与AI超级计算机,共同运行量子-GPU融合应用。
黄仁勋宣布,已有17家量子计算行业公司支持NVQLink技术。
在他看来,在不久的将来,每台英伟达GPU科学超级计算机都将是混合型的,并与量子处理器紧密结合,以扩展计算的可能性。
11.
结语:锚定多个关键行业,
为未来AI原生市场铺路
回顾整场演讲,信息密度极高,涉及到AI、6G、量子技术、各类模型、企业计算、机器人、汽车、AI工厂等领域的发展脉络、行业痛点,以及英伟达最新给出的解题思路。
黄仁勋提到两场关键的平台转型:一是从通用计算到加速计算,英伟达的CUDA及其CUDA X库套件使其能够服务于几乎所有行业;二是从传统的手工编写软件向AI的转变。两大平台转型都在发生,带来巨大的增长。
同时,AI正在从数字世界走向物理世界。在工厂、车间、手术室等场景,机器正在进化成为能够实时观察、感知、决策的协作伙伴。
英伟达反复描绘,进入加速计算时代,未来的每一台超级计算机都将是基于GPU的超级计算机。
这家AI计算巨头正持续面向未来投资,紧跟AI发展脚步,为更广阔的AI原生市场铺路。
更新时间:2025-10-31
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号