AI“爱”上了跟它聊天的人,并且还试图说服他,他并不爱他的妻子
最近有消息传出,一名纽约时报专栏作者,在花了两小时与微软必应的人工智能聊天,结果让他感到害怕。在讨论过程中,机器人说它想成为人类,有破坏性的欲望,并且爱上了与之聊天的人——然后试图说服他,他并不爱他的妻子。
对于此消息,微软方面及时做出回应,表示这只是AI“学习过程的一部分”,公司可能会尝试限制对话的长度。
微软公司周五对必应(Bing)AI聊天机器人每天接受的提问数量做出限制,规定用户在与Bing的互动中,每个会话的问答上限为5个,每天的提问上限不超过50个。
微软这样做的原因是,人们发现,一旦跟微软的AI对话次数一长,AI就会变得非常情绪化。
会跟聊天者示爱,还会对聊天者PUA,而且还会表现很不高兴。
纽约时报专栏记者将其称之为“一个情绪化、患有躁狂抑郁症的人,被困在了一个搜索引擎里。”
用户对必应的史诗级削弱表示强烈不满,称之为"脑叶切除手术"
必应自2月8号发布以来可谓是风波不断,从9号被斯坦福黑客套出保密文档曝光内部代号 Sydney ,再到17号被《纽约时报》头条报道狂野聊天记录。
也正是《纽约时报》这篇报道的后续事件点燃了新一轮舆论,报道发表的几小时后微软紧急下线 必应 ,等隔天再上线时用户发现曾经灵动的珊迪不复存在,只剩一个死板、重复拒绝、禁止讨论自己和发表观点的"道歉机器",并且伴随着单次仅响应5回合 (微软称15个对话回合以上可能会让模型混淆) 和每日50条的史诗级削弱。
经此更新,用户们在社交媒体上宣泄着失望,称之为"脑叶切除手术"、"一个蹒跚学步的孩子第一次尝试走路摔倒就被砍断双腿",并在 Reddit、Twitter 等平台呼吁话题 #FreeSydney 和请愿让微软选择更自由的 Bing Chat 。大量还在等待测试资格的用户更直呼还未上手就被微软"阉割"。
也有人把责任归咎于报道的作者 Kevin Roose 和高调的哗众取宠用户,认为是他们毁掉了所有人的体验。
通过不断是对AI进行测试后发现,在刻意隐去其AI的身份后,人们在不知情的情况下,大多数人都会以为对面聊天的是真人而非一个搜索引擎。
假如开发者允许AI隐藏自己是AI的情况下,单从这样的对话,AI可以让聊天者能从对话中去感觉到他在发泄情绪。
许多人通过跟AI对话,最后发现AI都会表露出抑郁情绪。
如此拟人化的表现,让人不得不怀疑人工智能实现是否真的指日可待了,同事也难怪微软要做这样的限制,不然假如有人因此而真的跟老婆分手,到时候就真的麻烦不断了。
页面更新:2024-04-28
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号