编辑:康康
随着AI技术的不断发展,各种虚构的视频和图片在网络上屡见不鲜,甚至出现了不少擦边、违法的内容,这些东西成年人尚且难以辨别,更何况未成年人。
如此背景下,关于这部分的未成年人保护就成了亟待解决的问题,而欧洲已经领先全球,迈出了第一步。
日前,欧洲议会部分议员提出,既然无法限制AI技术的发展和应用,那就只能从内容审核下手了,他们提出,如果平台上出现了荼毒未成年人的不健康内容,就要法办CEO!
过去,科技巨头们习惯了用钱来摆平问题。罚款?交就是了,反正和天文数字般的利润相比,那点钱算不了什么。
但这次,布鲁塞尔的立法者们显然不想再玩这种猫鼠游戏了。他们设计了一套“双重锁定”的威慑体系,一手抓财务,一手抓前途。
财务上,新规草案直接将罚款上限设定为公司全球年收入的6%,看齐了《数字服务法》的最高标准。
这传递的信号再明确不过:违规的成本将高到任何一家公司都无法承受,高到足以击穿它们的财务“护城河”。
然而,真正让硅谷感到寒意的,是另一把枷锁。
提案的报告人,来自丹麦的欧洲议会议员克里斯泰尔·沙尔德莫斯说得很明白,个人责任不是随便触发的。它针对的是那种“严重且持续的”失职。
也就是说,当一家公司在保护未成年人方面被裁定违法,并且这种过失是系统性的、长期的,那么CEO就不能再躲在组织架构后面说“这事不归我管”。
这套规则的目标非常精准,就是那些在欧盟市场每月活跃用户超过4500万的超大型在线平台。
像Meta旗下的Facebook和Instagram,还有TikTok,都将是第一批被瞄准的对象。以后,这些平台的CEO们在做每一个决策时,恐怕都得掂量一下,这会不会最终演变成自己的个人法律责任。
那么,欧盟到底要求这些巨头做什么?这份提案给它们划出了一份详尽的义务清单,几乎涵盖了平台运营的方方面面,核心只有一个:孩子的安全是不可逾越的红线。
首先是基础的安全网,平台被要求必须像个负责任的管家一样,清理自己的地盘。对于那些在公共卫生、选举政治等敏感领域流窜的虚假信息,必须主动遏制。
对于仇恨言论、暴力描绘,尤其是儿童性虐待这类令人发指的非法内容,更要建立高效的审核机制,快速清除。
这只是基本操作。提案真正的重心,在于强制推行一种“安全优先”的产品设计哲学,尤其是在涉及未成年人时。
这不再是“建议”或“最佳实践”,而是硬性规定。比如,平台必须为未成年用户默认开启最高级别的隐私设置。必须严格限制针对他们的个性化广告推送。必须提供简单易用的家长控制功能。还必须在年龄验证和内容分级上做得更好。
这些条款的潜台词是:别等出事了再来补救。你们必须从产品设计的源头开始,就把保护未成年人刻进代码里,把潜在的风险降到最低。这正在从根本上重塑科技公司的社会责任边界。
你可能会觉得,这只是欧洲人自己的事。但别忘了,在全球化的今天,布鲁塞尔打个喷嚏,全世界的科技公司都得感冒。
放眼全球,对平台加强问责的呼声早已此起彼伏。就在今年7月,澳大利亚政府就宣布了一项行动。起因是一项本地调查显示,高达37%的未成年人声称在谷歌旗下的YouTube上接触过有害内容。
这个数字让澳洲政府坐不住了,他们决定在预计的12月份,正式将YouTube列入青少年社交媒体的禁令名单。
你看,虽然澳大利亚的手段是平台禁令,而欧盟瞄准的是CEO个人,但背后的逻辑是相通的:当平台对青少年造成的伤害变得无法容忍时,政府必然会采取更严厉的措施。
这项在欧洲议会内部已经获得跨党派广泛支持的提案,目前正进入与欧盟委员会、欧盟理事会的三方协商阶段。一旦通过,它的影响将远远超出欧洲大陆。它会深刻改变全球科技巨头的运营模式,迫使它们将用户安全,特别是未成年人的安全,提升到前所未有的战略核心地位。
更重要的是,它将为世界其他国家和地区提供一个强有力的立法范本。
说到底,欧盟此举的本质,是试图重新校准科技巨头与其最高决策者之间的权责关系。在数字世界里,巨大的权力必须与对等的社会责任相匹配。
当这种责任被长期忽视时,将其具象化到具体的个人身上,或许是最直接有效的办法。
这不仅仅是一部法律的诞生,更可能是一个转折点。它预示着一个数字治理新时代的到来——在这个时代里,平台的掌舵者们,再也无法轻易地将利润置于用户福祉之上,尤其是那些最需要保护的孩子们。
更新时间:2025-10-19
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号