来源:环球网
【环球网科技综合报道】6月2日消息,据外媒报道,Meta公司正计划借助人工智能系统,实现对旗下如Instagram和WhatsApp等应用程序高达90%的更新所涉及的潜在危害和隐私风险评估的自动化。
据2012年,Facebook(现Meta)与联邦贸易委员会(FTC)达成的一项协议规定,该公司需对其产品进行隐私审查,评估任何潜在更新的风险。截至目前,这些审查工作主要由人工评估员完成。
按照Meta的规划,在新的系统下,产品团队需先填写一份关于其工作的调查问卷,之后通常会收到一份“即时决定”,其中包含人工智能识别出的风险,以及相关更新或功能在发布前必须满足的要求。
这种以人工智能为核心的方法有望让Meta更快地对产品进行更新。不过,一位前高管表示,这一举措也带来了“更高的风险”,因为“产品变化的负面外部性在开始对世界造成问题之前,可能不太容易被阻止”。
Meta发言人在一份声明中称,公司已“在隐私计划上投资超过80亿美元”,并致力于“在满足监管义务的同时,为人们提供创新产品”。该发言人还表示:“随着风险的演变和我们项目的日趋成熟,我们会改进流程,以便更好地识别风险、简化决策流程并提升人们的体验。我们利用技术来提高低风险决策的一致性和可预测性,并依靠人类的专业知识对新颖或复杂的问题进行严格的评估和监督。(纯钧)
更新时间:2025-06-05
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号