苹果竞相平息对儿童色情跟踪系统的强烈抗议

苹果竞相平息对儿童色情跟踪系统的强烈抗议

2021年8月14日

在试图打击儿童色情内容引发了人们的担忧之后,苹果公司正在竞相遏制争议,因为他们担心客户会在一个神圣不可侵犯的地方失去隐私:他们的设备。

这家科技巨头正在指导员工如何处理有关消费者的问题,并聘请独立审计师来监督新措施,这些措施试图根除所谓的 CSAM,即儿童性虐待材料。苹果周五还澄清说,该系统只会标记用户拥有大约 30 张或更多潜在非法图片的情况。

本月早些时候,当该公司宣布了三项新功能时,引起了轩然大波:支持 Siri 数字助理报告虐待儿童和访问与打击 CSAM 相关的资源;Messages 中的一项功能,可扫描儿童操作的设备以查找传入或传出的露骨图像;以及 iCloud 照片的一项新功能,该功能将分析用户的图库以查找儿童的露骨图像。如果发现用户的图库中有此类图片,Apple 将收到警报,进行人工审核以验证内容,然后将用户报告给执法部门。

电子前沿基金会等隐私倡导者警告说,该技术可用于跟踪儿童色情以外的事物,为“更广泛的滥用”打开了大门。而且他们并没有被苹果引入审计员和微调系统的计划所缓和,称这种方法本身不禁破坏了保护用户隐私的加密。

“任何允许监视的系统都会从根本上削弱加密的承诺,”EFF 的 Erica Portnoy 周五表示。“再多的第三方审计也无法阻止威权政府要求将他们自己的数据库添加到系统中。”

强烈抗议凸显了苹果面临的日益严峻的挑战:防止其平台被用于犯罪或滥用活动,同时还要维护隐私——这是其营销信息的一个关键原则。

Apple 并不是第一家将 CSAM 检测添加到照片服务的公司。Facebook Inc.长期以来一直有算法来检测上传到其社交网络的此类图像,而谷歌的 YouTube 则分析其服务上的视频,以查找涉及儿童的露骨或辱骂内容。和的Adobe公司有它的在线服务类似的保护。

多年来,谷歌和微软公司也为组织提供工具,帮助他们检测平台上的 CSAM。此类措施对 Apple 来说甚至不是全新的:自 2019 年以来,这家 iPhone 制造商已将 CSAM 检测内置到其 iCloud 电子邮件服务中。

但在苹果多年来将隐私作为优于同行的优势之后,它面临着向客户正确传达信息的额外压力。在本周给员工的一份备忘录中,该公司警告零售和销售人员,他们可能会收到有关新系统的询问。Apple 要求员工查看有关新保护措施的常见问题文档:

iCloud 功能为每个用户的图像分配所谓的散列键,并将这些键与分配给显式资料数据库中的图像的键进行比较。

一些用户担心他们可能会因为简单地将婴儿的图像存储在浴缸中而受到牵连。但是父母的孩子的个人照片不太可能出现在已知的儿童色情内容数据库中,苹果公司正在将其作为其系统的一部分进行交叉引用。

设置大约 30 张图像的阈值是另一个可以缓解隐私担忧的举措,尽管该公司表示这个数字可能会随着时间的推移而改变。苹果最初拒绝透露在公司收到警报之前用户库中需要有多少潜在的非法图像。

Apple 还解决了有关政府监视用户或跟踪非儿童色情照片的担忧。它表示其数据库将由来自多个儿童安全组织的图像组成,而不仅仅是最初宣布的国家失踪与受虐儿童中心。该公司还计划使用来自不同政府运营地区的集团的数据,并表示独立审计师将核实其数据库的内容。

展开阅读全文

页面更新:2024-04-22

标签:苹果公司   色情   苹果   儿童   可能会   系统   露骨   抗议   图像   隐私   员工   功能   照片   内容   数码   用户   公司

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top