MOSS和弗洛伊德之间,还有多远的距离?

如果在三十年前有人说AI可以在绝大多数领域以假乱真,甚至做得比人类更好,我们一定会认为他在开玩笑,但是在2023年的今天,AI做到了无数我们曾经无法想象的事,各行各业骄傲的精英们曾经不乏对AI嗤之以鼻的蔑视,然而AI碾过了一个又一个专业领域,包括但不限于棋类、绘画、甚至交谈。而最近的ChatGPT的兴起,甚至让部分人认为心理咨询就是下一个被AI攻占的领域。

那么,以现有的AI水平,究竟能否做到呢,我们带着这样一个问题,来进行下一步的探讨。


01 期望

与人机对话和与人类对话到底有何不同?我们将通过一个实验来说明这个问题。

实验设计了一个聊天机器人说服参与者进行慈善捐赠的情景,结果发现,当参与者认为与之对话的是人类时,将会有更高概率完成捐赠,而且对话时往往更加随和愉快。

因此,相比AI,与人类对话可能会导致我们在交流中表现出更多的亲社会行为,换言之,真实的人类对来访者具备更大优势,也更容易被认可。

当然,上述结论是基于“判断”而非“事实”,也就是说,如果在网络上的AI能够在心理咨询中让人感觉到它是真正的人,那么以上结论可能会被推翻。

如此看来,期望是十分重要的。当参与者认为对方是人类,他会期望得到正常生活中对话的模式,因为这触发了人类世界中的认知启发式。

而当参与者认为对方是AI,他就会期待与AI沟通时的范式,从而无法很好地带入到“来访者”这一角色。但这也有一些特别的益处,如人们与AI聊天时更容易自我暴露,这可能是因为不用担心道德上的谴责和信息的外泄。

但值得一提的是,现在的AI技术并没有达到能够在心理咨询领域“以假乱真”的能力。


02 AI的机制

那么,为什么AI目前无法做到呢?我们来拿当下最炙手可热的ChatGPT来举例。关于它的核心技术,我们可以查阅到的资料是“ChatGPT受到关注的重要原因是引入新技术RLHF (Reinforcement Learning with Human Feedback,即基于人类反馈的强化学习)。RLHF 解决了生成模型的一个核心问题,即如何让人工智能模型的产出和人类的常识、认知、需求、价值观保持一致。ChatGPT是AIGC(AI- Generated Content,人工智能生成内容)技术进展的成果。该模型能够促进利用人工智能进行内容创作、提升内容生产效率与丰富度。ChatGPT模型的能力上限是由奖励模型决定,该模型需要巨量的语料来拟合真实世界,对标注员的工作量以及综合素质要求较高。

通篇看下来,我们不难发现,现在的AI对话技术,仍然处于“基于人类反馈的强化学习”的阶段,所以对语料素材的需求量巨大,而要想令AI熟练掌握心理咨询的技巧,那么需求的相关语料知识更是一个天文数字。因为这不但包含了现实生活中所会遇到的大大小小可能产生心理问题的细节,还涉及一个极其重要,但AI还十分匮乏的能力。

03 共情

共情能力是心理咨询师必须具备的能力,许多研究者发现,用户重视AI的共情反应,当AI表现出共情行为时,用户同样会强烈地投入情感。因此,有人认为在人类与AI间可以建立治疗关系。

反对的声音则认为,当AI表达情绪或假装理解用户的感受时,他们会感到困扰和恼怒,因为用户会认为AI“只是机器”,因此他们期望对方没有情绪。这会使用户感到强烈的被欺骗感,甚至产生恐怖谷效应。

那么由此我们不难发现,问题便又来到了我们开头所讲的“期望”上了。

所以设计师们的做法要么是故意暗示AI对人性的感知,要么是模糊人类和AI的区别,总之是讲用户的期望锁定到偏向真人的这个方向。

《流浪地球2》中的MOSS便具备了这一理念的雏形,某些时候我们甚至会觉得刘培强真的在和高层领导语音通话,但即使科技进步到了电影中的高度,我们也依旧无法将MOSS完全与人类等同。

故此本文抛出结论:现今的AI想要替代人类实现心理咨询工作,还有很长的路要走。

但若是未来技术日趋成熟,AI有能力与人类情感心心相印的时候,它在未来人类的生活中又将扮演怎样的角色呢?我们又要如何去看待它?这一天会很快到来吗?这些问题就交给评论区的各位咯~

展开阅读全文

页面更新:2024-05-02

标签:弗洛伊德   语料   人工智能   参与者   心理咨询   模型   距离   人类   领域   能力   发现   用户

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top