来源:环球网
【环球网科技综合报道】6月9日消息,据外媒报道,多个行业组织对英国通信管理局(Ofcom)呼吁,限制 Meta在关键风险评估中使用人工智能。英国通信管理局表示,正在“考虑”活动人士提出的担忧。
据此前报道,Meta 计划将高达 90% 的应用更新风险评估自动化。对此,多个组织在一封信中将人工智能驱动的风险评估的前景描述为“倒退且令人高度担忧的一步”。
英国通讯管理局 (Ofcom) 的一位发言人表示:“我们已经明确表示,服务机构应该告知我们谁完成、审查并批准了他们的风险评估。我们正在考虑这封信中提出的问题,并将在适当的时候做出回应。”
而Meta则表示,这封信故意歪曲了公司的安全方针,该公司致力于高标准并遵守法规。
Meta 的一位发言人表示:“我们并非使用人工智能来做出风险决策。相反,我们的专家构建了一个工具,帮助团队识别特定产品何时适用法律和政策要求。我们使用由人工监督的技术来提升管理有害内容的能力,我们的技术进步显著改善了安全结果。”
上个月,外媒报道称,Meta 的算法更新和新安全功能将主要由人工智能系统批准,不再由工作人员审查。据一位不愿透露姓名的 Meta 前高管透露,这一变化将使公司能够更快地在 Facebook、Instagram和 WhatsApp 上推出应用更新和功能,但也会给用户带来“更高的风险”,因为在新产品向公众发布之前,潜在问题不太可能得到预防。(思瀚)
更新时间:2025-06-11
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号