ChatGPT“产生幻觉” 一些研究人员担心它无法修复

#挑战30天在头条写日记#

尽管像 OpenAI 的 ChatGPT、微软的 Bing 和谷歌的 Bard 这样的“生成”聊天机器人在过去六个月中展示了令人难以置信的能力飞跃,但它们仍然有一个重大的致命缺陷:它们总是在编造东西。所谓编造东西就是生成一个和现实不符合的答案或者说谎。

所以AI真的成熟和可信嘛?

最近,研究人员询问了 OpenAI 的 ChatGPT 人工智能聊天机器人的两个版本,麻省理工学院教授 Tomás Lozano-Pérez 的出生地。一个机器人说西班牙,另一个说古巴。一旦系统告诉机器人辩论答案,说西班牙的那个很快就道歉并同意了正确答案的那个,古巴。

其实这种说谎可能原则性错误产生在最基础的逻辑编程方向。也让很多人开始思考。这套逻辑编程真的是未来ai发展的方向吗?

大多数研究人员都认为,这个问题是由于机器人的设计方式而为机器人提供动力的“大型语言模型”所固有的。他们根据从互联网上消化的大量数据来预测最合适的说法,但没有办法了解什么是事实。

一些公司正在使用人类培训师来重写机器人的答案并将其反馈给机器,目的是让它们变得更聪明。谷歌和微软已经开始使用他们的机器人直接在他们的搜索引擎中给出答案,但仍然会用常规搜索结果仔细检查机器人。世界各地的学者都提出了无数巧妙的方法来降低错误答案的发生率,例如麻省理工学院提议让多个机器人相互辩论。

希望我们的AI技术早点面世。虽然现在Chat gpt有很多问题,但使用过他的人无不为他的强大感到震撼。

展开阅读全文

页面更新:2024-04-14

标签:研究人员   麻省理工学院   古巴   西班牙   微软   幻觉   机器人   逻辑   担心   方向   机器   答案

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top