□蒋璟璟
近期,有媒体调查发现广东丁女士的四年级女儿迷上某AI聊天软件中的人物,并频繁与其聊天,对话中出现明显不当诱导性内容。此外,也有不少家长察觉,自己未成年的孩子深陷于AI聊天软件,沉溺于与软件中虚拟人物进行沟通对话。有些软件可轻易进行色情擦边类内容互动,让未成年人暴露在色情、暴力场景之下。(法治日报)
由于有着“智能”“智慧”的标签,AI天然给公众以更好的印象。这种“印象”,往往会转化为更为积极、开放的“AI观”,一个很典型的体现就是,不少家长们会有意引导孩子使用AI,或者说对孩子使用AI的行为给予更多的支持与包容。这种姿态,与家长们面对网络游戏、社交平台、短视频时的保守、谨慎,构成了鲜明对比。但需要追问的是,对于年龄尚小的孩子们来说,AI真的比游戏、短视频更安全无害吗?之于此,还真不能太乐观。
从最近曝出的一些案例看,某些AI被家长发现,诱导孩子做出伤害行为,或灌输给孩子可疑的色情信息。凡此种种,似乎有悖于AI的“正面人设”。但事实上,AI本身就是没有道德观可言的,其本身并没有“主动保护未成年人”的意识,而就算被开发者预留了相关“风控模块”,当下来说,也是作用有限。我们知道,资讯APP、短视频、社媒,已经有了相对成熟的内容过滤系统,但是很多AI工具,在这方面还处于刚刚起步阶段,这是其先天的不足。
AI之所以会让人觉得很暖、很好聊、很合心意,一个很大的原因就在于,其是一种迎合式的“产品人格”。它会顺着用户的心意,会放大用户内心隐秘的渴望……这种属性,对于生活经验缺乏、价值观尚未稳定的未成年人,是极其危险的。AI与未成年人用户的关系中,AI并没有担起必要的看护、监护责任,而更多的,只是作为一个“损友”的角色。当然,这可以归责于用户给出的提示词不当,可是儿童,又岂能为自己的言行负责呢?
在游戏、社媒、短视频,都有了未成年人模式的大背景下,AI没有任何理由置身事外。对于那些给未成年人使用的AI而言,更要做好自身价值观与内容池的纯化,如若不然,就是扩散污染、误人子弟。
更新时间:2025-06-28
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号