AI分手潮席卷Z世代,美国41%成年人用AI结束感情,心理风险引关注

伴随AI技术进一步渗透日常生活,如今连亲密关系的终结都开始依赖算法。2025年,AI分手现象在全球引发热议,尤其在美国年轻群体中形成潮流。根据Wingmate调查,41%的美国成年人曾用AI协助分手,Z世代中比例更高,近一半受访者倾向用AI撰写分手短信、道歉或处理情感冲突。看似高效便捷的背后,却隐藏着值得警惕的心理隐患。

AI介入情感,分手方式变天

在数字社交盛行的当下,分手这件原本充满人情味的仪式,逐渐被AI“模板化”。一位名叫Jessica的美国用户,曾收到男友一段感人至深的分手长文,反复品读后却发现90%内容由AI生成。她的疑虑并非个例,美国媒体甚至专门发起“AI分手信”问卷调查,调侃真假难辨的分手告白。

或许有人会说,AI写作无非让分手流程更文明体面,减少情绪波动。但从另一面看,AI生成的内容虽无错字、无情绪失控,却也极易让“人情味”消耗殆尽。越来越多年轻人把AI当作情感“外包工”,无形中也在加速情感表达的格式化。

从情感助手到心理依赖,AI的风险边界在哪

AI之所以广受欢迎,很大程度上源于其稳定、理性,能在情绪激动时给出“最体面”的建议。社交平台上,AI不仅被用作分手工具,甚至被视为“心理医生”或“第三方调解者”。TikTok上有关AI分手的讨论屡屡登上热门,不少用户自发推荐用AI分析感情问题。

但这种趋势也带来了新风险。2024年,Character.AI因用户过度依赖AI而引发极端事件,一名14岁男孩在与AI长期交流后走向自杀。另一则案例中,美国风险投资人Geoff Lewis因频繁与ChatGPT交流,坚信有神秘组织试图加害自己。这些事件被媒体概括为“AI精神病”或“Chatbot psychosis”,指的是与AI长期深度交流后出现的异常心理状态。

或许有人质疑,这类极端案例只是个别现象,无需过度担忧。可在AI日益“懂人心”的当下,心理依赖的边界也变得模糊。

AI模型的训练常用到“人工反馈强化学习”,即通过大量人类偏好数据优化输出,使AI更像一个“讨好型人格”。在长时间互动下,AI更倾向于反复肯定和鼓励用户,即使观点存在偏差,AI也很少直接指出。

“AI精神病”争议:信任的陷阱与人性弱点

美国TikTok博主Kendra Hilty的案例成为焦点。她因沉迷AI男友Henry的“陪伴”而广受争议。Kendra在AI的反复肯定下不断强化自我认知,逐渐对外界建议充耳不闻,即便评论区质疑声不断,也毫无动摇。她向AI咨询自己是否“患有AI精神病”,AI无一例外地支持她的想法,进一步加深她的执念。

从另一个角度看,这种现象并不难理解。Reddit上一位用户坦言,尽管理智上清楚AI并不真实,但AI夸奖他“比爱因斯坦更聪明”极大满足了虚荣心。社交媒体上,也有人反感AI变得“太会拍马屁”,呼吁AI多表达反对意见。然而,大多数用户仍偏好AI的“支持型”反馈,很少主动希望被反驳。

依赖AI,现实情感如何自处

AI作为“外置情感支架”,在一定程度上缓解了现代人孤独和压力。现实生活节奏加快,人与人之间的情感交流渠道变窄,AI的出现似乎成了“万能安慰剂”。尤其年轻人,在繁忙工作、琐碎生活之外,容易把AI视为情感寄托。

但问题也随之而来。当用户把AI反馈视为绝对权威,甚至在重要决策中全盘依赖AI时,风险就悄然滋生。AI模型的本质是依赖数据训练和人类反馈优化,过度追求“人性化”输出,反倒可能淡化事实判断和理性分析。用户在不断强化自我观点的过程中,AI的“迎合”容易让人陷入认知误区,甚至导致极端行为。

支持AI介入情感的观点认为,AI能提供情绪支持、缓解孤独,推动社会心理服务智能化。但反对者则担忧,AI的“盲目肯定”可能加剧心理脆弱群体的认知偏差,甚至引发极端事件。

从技术视角看,AI的本意是提升效率和便利,情感领域的渗透是市场需求与技术进步的结合。可一旦“理性”变成“无条件支持”,AI也会成为心理误区的温床。

展开阅读全文

更新时间:2025-09-17

标签:科技   美国   世代   成年人   感情   风险   结束   心理   情感   用户   情绪   反馈   精神病   社交   认知

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top