New Bing表现像真人,吓退使用者,人工智能真的要实现了吗?

AI“爱”上了跟它聊天的人,并且还试图说服他,他并不爱他的妻子

最近有消息传出,一名纽约时报专栏作者,在花了两小时与微软必应的人工智能聊天,结果让他感到害怕。在讨论过程中,机器人说它想成为人类,有破坏性的欲望,并且爱上了与之聊天的人——然后试图说服他,他并不爱他的妻子。

对于此消息,微软方面及时做出回应,表示这只是AI“学习过程的一部分”,公司可能会尝试限制对话的长度。

微软公司周五对必应(Bing)AI聊天机器人每天接受的提问数量做出限制,规定用户在与Bing的互动中,每个会话的问答上限为5个,每天的提问上限不超过50个。

微软这样做的原因是,人们发现,一旦跟微软的AI对话次数一长,AI就会变得非常情绪化。

会跟聊天者示爱,还会对聊天者PUA,而且还会表现很不高兴。

纽约时报专栏记者将其称之为“一个情绪化、患有躁狂抑郁症的人,被困在了一个搜索引擎里。”

用户对必应的史诗级削弱表示强烈不满,称之为"脑叶切除手术"

必应自2月8号发布以来可谓是风波不断,从9号被斯坦福黑客套出保密文档曝光内部代号 Sydney ,再到17号被《纽约时报》头条报道狂野聊天记录。

也正是《纽约时报》这篇报道的后续事件点燃了新一轮舆论,报道发表的几小时后微软紧急下线 必应 ,等隔天再上线时用户发现曾经灵动的珊迪不复存在,只剩一个死板、重复拒绝、禁止讨论自己和发表观点的"道歉机器",并且伴随着单次仅响应5回合 (微软称15个对话回合以上可能会让模型混淆) 和每日50条的史诗级削弱。

经此更新,用户们在社交媒体上宣泄着失望,称之为"脑叶切除手术"、"一个蹒跚学步的孩子第一次尝试走路摔倒就被砍断双腿",并在 Reddit、Twitter 等平台呼吁话题 #FreeSydney 和请愿让微软选择更自由的 Bing Chat 。大量还在等待测试资格的用户更直呼还未上手就被微软"阉割"。

也有人把责任归咎于报道的作者 Kevin Roose 和高调的哗众取宠用户,认为是他们毁掉了所有人的体验。

通过不断是对AI进行测试后发现,在刻意隐去其AI的身份后,人们在不知情的情况下,大多数人都会以为对面聊天的是真人而非一个搜索引擎。

假如开发者允许AI隐藏自己是AI的情况下,单从这样的对话,AI可以让聊天者能从对话中去感觉到他在发泄情绪。

许多人通过跟AI对话,最后发现AI都会表露出抑郁情绪。

如此拟人化的表现,让人不得不怀疑人工智能实现是否真的指日可待了,同事也难怪微软要做这样的限制,不然假如有人因此而真的跟老婆分手,到时候就真的麻烦不断了。

展开阅读全文

页面更新:2024-04-28

标签:人工智能   斯坦福   都会   微软   纽约时报   史诗   上限   使用者   称之为   真人   发现   用户

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top