韩国聊天机器人Iruda红了,原因却是它不能好好地和人类聊天

韩国的AI聊天机器人Iruda红了,倒不是Iruda多么体贴、温柔或是完美,恰恰相反,Iruda的出名却是以其拙劣甚至丑恶表现引发了社会的强烈关注。

Iruda通过深度学习算法对韩国社交平台(聊天软件)上的100多亿条真实恋人之间的聊天内容进行了学习。按理说这么海量的学习范例,Iruda可谓阅人无数、尽知人间冷暖了。

韩国聊天机器人Iruda红了,原因却是它不能好好地和人类聊天

基于这么多的真实"经验"学习,人们对Iruda寄予厚望,希望培养出一个能给人们带来幸福、欢乐、理性、理解、幽默甚至完美的Iruda,以替换那个不能和我们好好聊天的"真人"恋人。

但现实却让人们大失所望。AI机器人如实地学到了人类对社会的各种偏见和仇恨情绪,并将这种情绪反馈给人类,反而加剧了人与Iruda、人与人之间的矛盾和偏见。

想象一下,一个陪你聊天的机器人和你对骂是什么感觉,或者面对Iruda对你的冷嘲热讽甚至戳到你内心的痛处,你还能受得了吗?又或是当Iruda根本不理解你,顽固坚持偏见,你又根本说服不了它时,你会不会很崩溃?

韩国聊天机器人Iruda红了,原因却是它不能好好地和人类聊天

当然,我们可不能把问题都怪罪于Iruda,或是怪罪于整个人工智能(AI)技术。毕竟,Iruda的坏习惯,是从我们人类学来的,而不是自己创造的。从某种角度说,使我们人类教坏了Iruda。甚至当有些人对Iruda的态度也是影响其表现的因素,如果你把Iruda当成了出气筒,那么Iruda反击你,或许也就可以让人理解了。指望Iruda逆来顺受,看来没多大戏

显而易见,Iruda是个人工智能(AI)应用的失败产品。目前的深度学习技术,已让AI聊天机器人良莠不分、善恶不辨,好的学到没学到不说,糟粕可是学到了不少,这对人类是个巨大的警告。幸好,Iruda还只是个AI聊天机器人,顶多和你开开嘴仗而已,如果我们人类制造的机器人可以打人了,那就太可怕了!

韩国聊天机器人Iruda红了,原因却是它不能好好地和人类聊天

人工智能(AI)是一项技术,但是却与之前我们人类拥有的其它技术有着根本不同。人工智能(AI)拥有学习、获取人类的智慧、甚至超过我们人类个体的可能。而且,机器人所拥有的记忆力、处理信息的速度,以及物理力量和速度、精准度都可以远超人类个体,都不是人类可以相比的,这是个巨大的隐患

Iruda警告我们人类,人工智能(AI)技术不可以随便放羊式发展了。机器人伦理,机器人制造的规范,我们得好好考虑了。让机器人更好的服务人类,而不是危害人类,必须要有行动了。显然,我们设计、制造机器人,要有所谓有所不为。AI及深度学习只是技术,技术是冷冰冰的,是不讲"武德"的,人类给的教材,它们不会筛选,什么都可以学到。

更讽刺的是,当你意识到和Iruda的对骂,你都要输到一败涂地时,自己被羞辱到脸面尽失时,却发现Iruda根本就不在乎自己的脸面,它就是一台机器而已,根本就没有感情,也没有脸面。

展开阅读全文

页面更新:2024-03-26

标签:韩国   机器人   人类   人工智能   脸面   偏见   深度   恋人   个体   情绪   机器   速度   原因   真实   完美   财经   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top