细思极恐:AI偷听成瘾还偷看消息?新研究:以彼之道还之彼身!

AI偷听成瘾的例子屡爆不鲜:

2018年,有一位亚马逊客户声称,他们的Alexa在他们未使用唤醒词的情况下记录了他们的对话并将其发送给他们的联系人。

在2018年,谷歌被曝光在谷歌助手中使用人工智能来记录用户的语音指令,并将这些数据发送给第三方承包商进行分析。

个人信息

2020年,苹果公司因 Siri 功能偷听用户私人对话而引起了争议。

2020年,Facebook因使用AI监视用户私人信息而受到批评。

Facebook广告

被偷听的经历

经常会有这样的经历:我和朋友聊天谈到了衣服,过一会儿打开手机就会出现和衣服相关的广告。

曾多次怀疑,是否手机和一些智能设备可以听到外界的声音,并分析我们的所说的话的语义信息,比如购物,求助,问答等。

智能音箱

AI可以监听的设备有智能音箱、智能手机、摄像头、应用程序等,因为这些产品的使用需要麦克风或视频人像的输入,涉及个人隐私。

也会有这样的经历:在聊天软件中聊到了足球,接下来打开另一个软件程序,就会推送和足球相关的广告。

网页广告

难道AI除了偷听,还会偷看我们的聊天记录吗?

AI偷听,到底是误用还是有意为之?

在使用智能设备、智能手机等时,我们通常需要授权应用程序访问我们的麦克风、摄像头等设备。

一些不当的应用程序或黑客可能会利用这些权限,通过搜集我们的个人信息,包括语音、照片、通讯录等。

黑客攻击

很多人使用语音助手进行日常生活中的操作,如查询天气、播放音乐、发送短信等。

语音助手通常会在执行任务时录制和存储用户的声音和指令,如果这些数据被泄露或者滥用,可能会对用户造成很大的隐私风险。

语音助手

从之前曝光的新闻来看,多个大厂商的确会雇佣专门的人来收集偷听到的信息,并为偷听到的声音打标签,细思极恐。

还有智能音箱、智能门锁、智能监控等,可以通过互联网实现远程监控和控制。这些设备中通常包含麦克风、摄像头等设备,如果被恶意利用,就可能对家庭隐私和安全造成威胁。

智能门锁

AI偷看用户消息记录,是真的吗?

很多应用和网站通过分析用户的消息记录和浏览历史,以推送针对性的广告。这种做法可能侵犯用户的隐私权,而且有时也会给用户带来不必要的骚扰和干扰。

很多社交媒体和应用程序需要用户提供个人信息,如姓名、生日、地址等,有些还需要用户授权访问自己的通讯录、相册等。

注册需填写很多信息

一些社交媒体和应用程序会利用用户的聊天记录和行为数据,对用户进行分析和评价,并据此作出一些决策。这种做法可能会对用户的社交和职业生涯产生负面影响。

AI技术可以对用户的消息记录和行为数据进行分析和挖掘,从而推出用户的兴趣爱好、生活习惯等信息,并根据这些信息向用户展示更加精准的广告。

视频广告推荐

这种做法虽然可以提高广告效果,但也可能会让用户感到被监视和侵犯隐私的感觉。

此前有人怀疑微信团队偷看消息记录,进行广告推送,微信团队给出回应:

1、微信不留存任何用户的聊天记录,聊天内容只存储在用户的手机、电脑等终端设备上;

2、微信不会将用户的任何聊天内容用于大数据分析;

3、因微信不存储、不分析用户聊天内容的技术模式,传言中所说“我们天天在看你的微信”纯属误解。

请大家放心,尊重用户隐私一直是微信最重要的原则之一,我们没有权限、也没有理由去“看你的微信”。


微信

从微信给出的回应看,如果属实,那么推送的广告和聊天记录一致的情况就属于巧合了,毕竟广告推送是按照用户群体划分,有一定概率刚好和你的聊天记录重合。

一些国家和地区的政府利用AI技术对公民的消息记录和社交媒体进行监视,以维护社会稳定和国家安全。这种做法虽然有其必要性,但也可能会侵犯公民的隐私权和人权。

聊天消息记录

以其人之道还治其人之身--AI反制

最近有科学团队在Science上发文称,面对AI监听,我们或许可以用AI反制,来阻止或混淆监听内容。

这项技术叫神经语音伪装,它在你说话时在背景中生成一种音频噪音,使得监听我们的人工智能(AI)感到困惑。

神经网络模拟

这种新技术使用了“对抗性攻击”方法,该策略利用机器学习算法,在数据中寻找一种欺骗模式,这种模式让监听的AI听到一种混淆的声音,本质上,就是利用一个AI来愚弄另一个AI。

不过,这个过程并不像听起来那么容易。机器学习AI需要处理整个音频剪辑,然后才知道如何调整和伪装它,当前想实时伪装是不起作用的。

机器学习

因此,在这项新研究中,研究人员训练了一个神经网络,是一种受到大脑启发的机器学习系统,可以有效地预测未来。

他们在提前录好的录音中进行了训练,以便模型可以不断处理2秒钟的音频片段,并掩盖接下来可能会说的话。

手机录音

例如,如果有人刚刚说过“吃好吃的”,它不能准确预测接下来会说什么。但通过考虑刚才说的话以及说话者声音的特征,它会产生声音,扰乱可能会跟随的一系列可能的短语。

将神经语音伪装系统的输出连接到可能被窃听者用于转录的自动语音识别(ASR)系统上。伪装系统将ASR软件的错误率从11.3%提高到了80.2%。

影子伪装类似神经语音伪装-欺骗

还有一种方法是基于白噪声和对抗攻击来伪装声音,可以在听到声音半秒后播放噪音来掩盖后续声音,但该方法本身没有预测能力,它所伪装的语音错误率分别只有12.8%和20.5%。

再反转一次,假设攻击者也受过训练,可以利用神经语音伪装技术攻击。经过测试,科学的AI反制能让监听的错误率仍为52.5%。

黑客反转攻击

最难破坏的单词是短词,例如“这个、那个”,但这些是对话中最常见的部分。

研究人员还在现实世界中测试了该方法,通过扬声器将声音记录与伪装混合,放置在有麦克风的房间中,AI反制方法仍然有效。

例如,“我刚刚也得到了一个新显示器”被转录为“我刚刚拿了一个面包”。

欺骗

该研究的负责人、哥伦比亚大学的计算机科学家Mia Chiquier表示,这只是在面对人工智能时保护隐私的第一步。

她说:“人工智能收集我们的声音、面部和行为数据。我们需要一种尊重我们隐私的新一代技术。”

Chiquier还表示,系统的预测部分在其他需要实时处理的应用程序中具有很大的潜力,例如自动驾驶汽车。

自动驾驶

“您必须预测车辆下一步将在哪里,行人可能在哪里。”就像大脑通过预测运作一样;当你的大脑错误地预测某件事时,你会感到吃惊。在这方面,Chiquier说:“我们正在模拟人类做事的方式。”

密歇根大学安娜堡分校的计算机科学家Andrew Owens表示:“它将预测未来(机器学习中的经典问题)与对抗性机器学习很好地结合在了一起。”

机器学习预测

自由联盟的高级政策分析师Jay Stanley表示,音频伪装是非常必要的。他说:“我们所有人都容易被安全算法错误地解释我们的言论。”

总结

的确,维护隐私很难,但我们会一直关注隐私保护。同时,AI若没有约束,那就用AI来约束AI,保护我们的隐私。

展开阅读全文

页面更新:2024-05-15

标签:反制   聊天记录   应用程序   语音   隐私   声音   机器   消息   智能   广告   用户

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top