
人工智能的发展路径正在经历一场激烈的公开辩论。谷歌DeepMind高级研究科学家姚顺宇近日在接受《华盛顿邮报》采访时明确表示,通过增加计算资源和训练数据来扩展AI模型规模的传统方法仍有巨大提升空间,至少在未来一年内仍将产生显著成果。
这一观点与OpenAI联合创始人伊利亚·苏茨克维在最近播客节目中的表态形成鲜明对比——后者宣称人工智能已经走出"规模化时代",正在回归"研究时代"。两位行业重量级人物的分歧,折射出当前AI发展前沿面临的根本性问题:简单地堆砌算力和数据是否已经触及天花板。
姚顺宇的立场代表了硅谷技术乐观派的主流声音。这位清华物理系特奖得主在2024年完成加州大学伯克利分校博士后研究后,曾短暂加入Anthropic公司,后于2025年9月转投谷歌DeepMind。他在采访中强调,"还有很多唾手可得的成果可以摘取",并预计这种局面将持续"直到我们遇到数据的硬边界"。
这一判断基于一个核心假设:尽管业界已经在讨论数据稀缺和算力成本攀升等问题,但当前的训练方法论和基础设施优化仍有足够的改进空间,能够延续过去几年AI能力的指数级增长。
姚顺宇的观点并非孤立。谷歌在2024年推出的Gemini系列模型持续展示出规模化带来的性能提升,其多模态能力和长上下文处理能力的改进很大程度上依赖于更大的参数规模和更丰富的训练数据。
英伟达首席执行官黄仁勋也多次公开表示,AI算力需求在未来五年仍将保持强劲增长,这从侧面印证了行业对规模化路径的持续投入。根据Epoch AI的分析,前沿AI模型的训练计算量每年增长4至5倍,这一趋势在2024年并未显著放缓。
规模化的困境与范式转移信号
然而,苏茨克维的"研究时代"论断并非空穴来风。多个信息源显示,OpenAI代号为Orion的下一代模型在内部测试中并未显示出预期的性能飞跃。《商业内幕》和彭博社在2024年11月的报道均指出,OpenAI、谷歌和Anthropic三家领先AI公司在开发更先进模型时都遇到了收益递减的问题。Orion相较于GPT-4的改进幅度远小于GPT-4相较于GPT-3.5的提升,这被解读为传统预训练规模化方法正在逼近某种性能上限的信号。
数据稀缺是最直接的瓶颈。根据Epoch AI的研究,高质量文本数据可能在2026年前后耗尽,图像数据约在2030年至2060年间达到极限。尽管合成数据被视为一种解决方案——Gartner预测到2024年60%的AI开发数据将是合成数据,到2030年可能成为主要来源——但合成数据训练存在"模型崩溃"风险,即用AI生成的数据训练AI可能导致性能退化和多样性丧失。
算力成本同样构成现实约束。国际能源署预测,全球数据中心电力消耗将从2024年的415太瓦时激增至2030年的945太瓦时。按每千瓦时0.04至0.08美元的工业电价计算,到本十年末年度能源支出将达400亿至750亿美元。单个H100 GPU服务器功耗已达10.2千瓦,英伟达即将推出的Rubin Ultra机架功耗更高达600千瓦。在这种背景下,简单地增加模型规模意味着成本的几何级增长,而性能提升却可能呈现边际递减。
苏茨克维创立的Safe Superintelligence公司获得30亿美元融资,其战略正是押注于研究驱动的突破将战胜单纯的算力堆砌。他在播客中指出,2020年至2025年的"规模化时代"已经结束,当前方法将遭遇平台期,无法产生真正的智能。这一判断呼应了AI研究领域正在发生的范式转移:从预训练规模化转向测试时计算扩展和强化学习优化。
测试时计算:新战场还是权宜之计

谷歌DeepMind科学家姚顺宇表示,规模化仍有望在不久的将来带来更好的AI模型。图片:资料提供
行业的实际动向显示,即使规模化遭遇瓶颈,技术演进也并未停滞,而是在开辟新的路径。OpenAI的o1和o3系列模型代表了"测试时计算扩展"这一新范式——模型在生成答案前进行显性推理,通过在推理阶段投入更多计算资源来提升性能,而非仅依赖更大的预训练规模。这种方法的核心是将算力从训练时转移到推理时,让模型在回答问题时"多想一会儿"。
研究表明,o1模型的性能随着推理时投入的计算量持续改善,在数学、编码和科学推理等任务上展现出远超传统模型的能力。DeepSeek的R1模型也采用了类似策略,通过强化学习和推理时计算实现了性能突破。这些进展证明,即使预训练规模化遇到边界,通过算法创新和计算资源的重新配置,AI能力提升仍有空间。
然而,测试时计算扩展本身也面临挑战。每次推理的计算成本大幅增加,这对商业化部署构成压力。英伟达在其博客中指出,测试时扩展需要密集的计算资源来支持AI推理,这将进一步推高对加速器的需求。此外,有研究发现强化学习训练可能无意中针对评估基准进行了过度优化,导致评估分数看起来很好,但实际应用性能却滞后——这种"评估欺骗"现象提示我们需要更审慎地评估新方法的真实效果。
姚顺宇与苏茨克维的分歧本质上反映了AI研究社区对未来路径的不确定性。一方认为现有范式仍有潜力可挖,另一方则主张需要根本性的算法突破。两种观点都有其合理性:规模化在特定任务上确实仍在产生收益,但边际效益递减也是客观事实;测试时计算展现了新可能,但其可持续性和经济性尚待验证。
更深层的问题在于,无论是传统规模化还是测试时计算,都未能解决AI系统在常识推理、因果理解和泛化能力方面的根本局限。苏茨克维所说的"真正智能"需要的可能不仅是更多数据或更聪明的训练方法,而是对学习机制本身的重新思考。从这个意义上说,当前的辩论或许只是一个更长周期技术演进的序幕——在通往人工通用智能的道路上,规模化既不是终点,也不会立即失效,而是会与算法创新、架构革新和新的训练范式交织推进。
对于投资者和从业者而言,这场辩论的启示在于:不应将资源过度集中于单一技术路径。那些同时押注规模化优化、算法创新和新兴范式的企业,将在未来的不确定性中占据更有利的位置。姚顺宇强调的"唾手可得的成果"可能确实存在,但苏茨克维警示的"研究突破"同样不可或缺。AI的下一个跃升,很可能来自两者的某种综合——既需要工程上的持续优化,也需要科学上的概念突破。在这个充满变数的十字路口,保持技术路线的多样性或许比押注任何单一观点更为明智。
更新时间:2025-12-01
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号