iOS 15的「儿童保护」功能,引发网友愤怒

8月5号,苹果美国官网表示,他们正在与儿童安全专家合作开发新的儿童安全功能,后续会在 iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 的更新中推出这个儿童保护功能。


iOS 15的「儿童保护」功能,引发网友愤怒


这个儿童保护功能,主要是为了“CSAM检测”,CSAM 是指描述涉及儿童的色情活动的内容。


具体来说,这个功能,分为三个方面。


首选,Messages 应用程序将使用设备上的机器学习来警告敏感内容,也就是说,儿童的Messages应用会被苹果监测,如果发现孩子继续查看敏感照片,或者如果他们在被警告后仍选择将色情照片发送给其他人,iOS 就会通知父母。

iOS 15的「儿童保护」功能,引发网友愤怒

其次,iOS 和 iPadOS还会限制CSAM的传播,苹果系统会扫描你的iCloud账户,如果发现儿童色情、虐待儿童的图片,就会直接向执法部门举报。


最后,如果用户利用搜索功能和Siri搜索儿童色情、虐待儿童的内容,Siri和搜索也会跳出来阻止。


iOS 15的「儿童保护」功能,引发网友愤怒



引发网友不满的,主要是第二点,这意味着,苹果要扫描用户的iCloud相册,虽然是为了保护儿童,但我们的隐私也没有了。毕竟,当年的“棱镜门”事件还历历在目。


iOS 15的「儿童保护」功能,引发网友愤怒


苹果,自然也是考虑到了这点,所以在发布通知的时候,特地强调这次扫描iCloud用的是一种叫 NeuralHash 的加密技术,是无法直接看到用户照片的。苹果通过国家失踪和受虐儿童中心儿童安全组织提供的CSAM 图像,作为数据库,然后扫描用户iCloud时,会进行比对匹配。


最终也会有人工审核,如果识别错误,用户也可以进行申诉。


iOS 15的「儿童保护」功能,引发网友愤怒

声明的最后,苹果还放了很多报告材料,来佐证这项技术的可行性与安全性。

iOS 15的「儿童保护」功能,引发网友愤怒


目前只在苹果的美国官网有这项声明,其它国家后续会不会跟进这个功能还未知,另外,据了解,这个功能只会识别iCloud里的照片,存储在手机本地的照片不会被识别。也有外媒指出,这个功能应该不是强制的,用户自己选择是否开启。

展开阅读全文

页面更新:2024-03-23

标签:儿童   功能   棱镜   佐证   美国   色情   愤怒   敏感   声明   苹果   发现   通知   照片   网友   国家

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top