强化学习教父:LLM 只是 AI 发展的短暂热潮,AGI 之路另有方向

LLM 目前风靡一时,但越来越多的计算机科学家似乎在说,它们不一定是通往 AGI 的道路。

理查德·萨顿 (Richard Sutton) 是一位杰出的加拿大计算机科学家,经常被誉为现代强化学习的教父之一,他表示,目前全球对大型语言模型 (LLM) 的痴迷,比如为 ChatGPT 和 Gemini 提供支持的大型语言模型,是一个暂时的阶段,人工智能的未来将看起来大不相同。他将这一预测置于关于 AI 进步性质的更广泛的历史教训中。

Sutton 首先将当前的生成式 AI 浪潮置于更广泛的时间线中。“我认为,现在回想起来,它们似乎是世界对大型语言模型的短暂关注。我们未来拥有的人工智能将大不相同,“他断言。“我们只做了几年。”

为了解释他的推理,萨顿引用了他对人工智能论述最著名的贡献之一,即一篇题为“苦涩的教训”的文章。“你们中的一些人可能听说过苦涩的教训,”他说。“惨痛的教训是,当我们制造 AI 系统时,正如我们过去多次所做的那样,我们会按照我们认为的工作方式构建它们。这在一段时间内效果很好,但从长远来看,它会适得其反。做随计算扩展的事情比利用我们人类知识的事情要好得多。

将这一教训应用于当前的 AI 领域,Sutton 认为,LLM 尽管具有令人印象深刻的功能,但它是 AI 系统过于紧密地按照我们自己的形象构建的另一个例子——在这种情况下,模仿人类语言和知识结构。

“我认为 Large Language Models 将是另一个例子,”他解释说。“从长远来看,他们将扮演这个有限而重要的角色,但他们在十多年,可能是五年内不会代表人工智能的前沿。”

萨顿的观点基于数十年的研究和观察。他在 2019 年首次发表的《苦涩的教训》中指出,AI 领域最大的突破始终来自于利用原始计算能力而不是优雅、以人为本的设计。文章指出,依赖于人类策划的知识或试图融入认知理论的方法,虽然最初很有希望,但最终被允许机器使用海量数据集和处理能力从头开始学习的方法所超越。例如,国际象棋程序不再试图模仿特级大师,而是通过蛮力搜索和自下弈(直接与计算扩展的方法)占据主导地位。

从这个角度来看,今天的 LLM 是喜忧参半的。虽然它们利用巨大的计算规模进行训练,但它们的基本架构与人类语言和我们创建的大量文本语料库密切相关。Sutton 的论点暗示,我们再次将自己的理解方法嵌入到我们的机器中。这现在可能会产生令人印象深刻的结果,但它也可能创造一个天花板,一种更通用的计算驱动的学习方法最终可能会打破。

这种观点在其他 AI 杰出人士中越来越受到关注。Meta 的首席人工智能科学家 Yann LeCun 也表示怀疑,认为 LLM 缺乏真正的理解、常识和规划能力——这些都是 AGI 的关键组成部分。他倡导可以从更广泛的数据中学习的架构,包括视频等感官输入,以构建更强大的世界模型。谷歌首席执行官桑达尔·皮查伊 (Sundar Pichai) 也表示,当前的范式“完全有可能”无法让人类达到 AGI。根据这一学派的说法,人工智能的未来前沿可能不在于更大的语言模型,而在于自主的、基于代理的系统,这些系统通过交互和体验来了解世界,就像人类一样。这些系统将是“苦涩教训”的更真实应用——与其说是处理人类生成的文本,不如说是使用计算来产生自己对现实的理解。对于商业和科技界来说,萨顿的话是一个重要的提醒,当前的 AI 范式虽然是革命性的,但可能只是一个垫脚石,而不是最终目的地。

展开阅读全文

更新时间:2025-06-17

标签:科技   教父   热潮   短暂   方向   人工智能   教训   人类   语言   模型   苦涩   系统   方法   可能会   范式

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top