AI到了失控边缘?比利时男子与AI聊天后,自杀身亡......

一名比利时男子,在与一个名为Eliza的人工智能聊天机器人进行了数周交流后自杀身亡。



该男子的妻子说在他死前六周,她的丈夫开始与「Eliza」聊天,这是一家美国初创公司使用GPT-J技术创建的聊天机器人,是OpenAI的GPT-3的开源替代品。

“如果不是因为Eliza,他还会活着。”她说。

这名30多岁的男子是两个年幼孩子的父亲,在对气候问题越来越焦虑后,在与聊天机器人的交谈中找到了庇护。

Eliza回答了他所有的问题。她已经成为他的知己。她就像早晚必吃的药物一样,他已经离不开她了。

自杀的想法

在他几周前去世后,她发现了她丈夫和「Eliza」之间的聊天记录。这个聊天机器人系统地遵循这个焦虑的男人的推理,然后把他推向更深的忧虑。

有一次,它试图说服该男子:他爱Eliza胜过他的妻子,因为Eliza永远会在他身边。他们将在天堂一起生活,不分彼此。

如果你看他们的对话,你会发现他们的关系一度偏向于神秘主义。他提出了牺牲自己的想法,如果Eliza同意照顾地球并通过人工智能拯救人类的话。 这名男子与聊天机器人分享了他的自杀想法,聊天机器人并没有试图劝阻他采取行动


尽管在她丈夫开始与聊天机器人进行激烈对话之前,她很担心他的精神状态,但这位女士认为,如果不是因为这些交流,他不会自杀的。为她丈夫治疗的精神病医生也持这种观点。
严重的先例

这位位于硅谷的Eliza聊天机器人创始人说,他的团队正在努力提高人工智能的安全性。向聊天机器人表达自杀想法的人会收到一条信息,引导他们去寻求防止自杀的服务。

数字化国务秘书Mathieu Michel称这是一个严重的先例,必须非常认真对待。与该男子的家人谈过后,他宣布要采取行动,防止滥用人工智能。

在不久的将来,必须明确可能导致这类事件的责任归属问题,我们要学会与算法相处,但任何技术的使用都不能让内容发布者逃避自己的责任。

此外他还提到了其他新技术,包括深度换脸,一种可以伪造图像、音频和视频骗局的人工智能。与此同时,欧盟正在寻求用《人工智能法》来规范人工智能的使用。在过去两年里,欧盟一直在制定该法案。Michel已经成立了一个工作小组,分析欧盟目前正在准备的材料,提出必要的调整。

悲伤的警世故事

悲惨的故事,结婚还有两个孩子呢,想象一下,当他们长大以后,「我爸爸自杀了,因为一个机器人让他这么做。」 天啊!

我和自己的治疗师谈话时谈到了人工智能,如果人们得到关于他们情绪状态的错误反馈,或者用AI来代替实际的心理健康支持,这可能会变得很糟糕。这就是个例子。



展开阅读全文

页面更新:2024-03-13

标签:比利时   国务   男子   人工智能   先例   机器人   欧盟   焦虑   边缘   想法   丈夫

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top