当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

当普通大众热衷于谈乐"AI换脸"后杨幂版的黄蓉、徐锦江版的海王时,以DeepNude和"原谅宝"为代表的AI技术应用已然悄悄超越了恶搞和娱乐的范畴,逐渐暴露出其"黑暗面":虚假内容、侵犯隐私、色情暴力,甚至是更为严重的犯罪趋势。

可以说,滥用AI技术而延伸的种种潜在问题正威胁着网络世界的安全,也威胁着每一个网络用户。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

DeepNude和"原谅宝"引发抵制

上个月,AI"一键脱衣"项目DeepNude引起了全网广泛争议,因其低俗、负面内容遭受舆论讨伐。

在DeepNude上传任意一张女性照片,便可通过AI技术将其衣服"脱掉",合成一张该女性的裸照。据开发DeepNude的程序员表示,DeepNude只用了一万张女性的裸照进行训练,因此只能处理女性的照片,裸露越多,合成的裸照效果便更好。同时,如果上传男性照片,系统仍会生成女性身体的裸照。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

DeepNude

项目公开5天内,便吸引了50万人使用。一时之间,大量女性裸照被疯传。这其中,受害的不仅有女明星这类公众人物,更有不少普通女性。由于流量远远超过了开发者的预期,DeepNude的服务器一直不稳定,再加上全球抵制的声音越来越大,DeepNude团队最终在项目上架的第5天宣布永久关闭该项目。

而"原谅宝"还未公布便被国内外网友讨伐,迫使开发者删库道歉。今年5月底,名为"将记忆深埋"的微博用户表示,自己通过半年时间,比对了国内外色情网站和社交媒体的数据,"在全球范围内成功识别了 10 多万从事不可描述行业的小姐姐",以帮助"老实人"核查女性伴侣。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

此微博一出,各大论坛和社交平台上尽是关于"原谅宝"的论战。以男性为主的用户举双手支持程序员用技术保护自己利益,而以女性为主的反对方,主要围绕着侵犯隐私权、数据真假和偷拍视频会对受害女性造成二次伤害这三个问题攻击"原谅宝",外网网友更是发起了#ChinaWakeUp#的tag声援国内女性,强烈反对非自愿色情视频的传播。这场论战暂时以"将记忆深埋"的道歉和删库声明为节点,但是其延伸出的潜在道德和法律问题却被暴露在大众面前,引发人们深思。

AI技术被"黑暗面"滥用

Deepfake,深度伪造技术,即利用人工智能技术,将一个人的脸合成到另一个人的视频中,类似于视频版的PS。最初,Deepfake只供AI技术爱好者们讨论学习。但Deepfake走向广泛普通网友,则是为色情视频中的女性演员换上女明星的脸。这其中,"神奇女侠"加朵、"黑寡妇"斯嘉丽·约翰逊和艾玛·沃森都是被Deepfake最多的女明星。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

"神奇女侠"加朵"中招"

慢慢地,这种"私欲"异端化、病态化,演变出了"色情复仇"。有的人直接搜集普通人的照片,试图通过Deepfake技术制作、传播虚假的色情视频中伤、攻击女性,让污名化女性、色情暴力成为可能。

印度记者 Rana Ayyub 就因揭露了印度古吉拉特暴乱中官员的黑幕和不作为而被"色情复仇"。Rana Ayyub在4月份发表了一篇具有挑衅性的报道后,随后在Facebook、Twitter和WhatsApp上便开始流传一段关于Rana的色情视频,而这个视频正是被人利用Deepfake技术合成的。虽然后来Rana出来澄清,但她受到的不良影响却没有因此被消除。很长一段时间内,Rana不仅被网友恶言相向,还受到了严重的网络骚扰。迫于社会压力,再加上印度不健全的法律无法保护Rana,她最后选择远离网络。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

印度记者 Rana Ayyub曾被"色情复仇"

同样,先不论目前"原谅宝"技术的可行性和科学性,其背后暴露出来的隐私侵犯、非自愿色情视频的偷拍和传播问题已经加重了大众的危机感。

首先,无论是被测试女性是否为性工作者,窥探对方过往,公布个人信息,本身就已触及了隐私的底线,假使这套系统真的上线,那么每个人都能通过它对每一位女性进行羞辱,摧毁女性的正常生活;其次,"原谅宝"在未经当事人允许的情况下,私自建立人脸数据库,在开发者身处的德国并不合法,违反了欧盟的《通用数据保护条例》(GDPR),侵犯了公民隐私权和被遗忘权。最后,开发者称机器学习的数据来源于国内外色情网站和社交网络,那么这些被传播的色情视频是否合法,是否侵犯了当事人的隐私权,就牵涉出长久以来的偷拍问题。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

近来各种酒店、民宿甚至是公共卫生间的高级偷拍摄像头的泛滥让人不寒而栗,大多数偷拍者会将偷拍的视频上传至社交网站,甚至是色情网站以换取丰厚回报。据新华社报道,一个画面清晰、女生相貌姣好的偷拍视频可以卖到上千元,色情网站则通过开设偷拍专区吸引会员付费,这已经形成了一种有效的"商业模式"。同时,很多男性出于将女性视为性资源的观念和满足男性对于自己手中性资源的控制欲,对自己伴侣进行的偷拍和传播。纵使有法律明确规定,禁止在当事人非自愿的情况下进行拍摄、传播,但却因为其隐蔽性难以彻底消除。

技术发展下关于隐私问题日益严重

DeepNude和"原谅宝"引发的恐慌,只是技术发展下隐私问题的冰山一角。

可我们如此在意的隐私究竟是什么呢?从目前我国法律角度来看,个人隐私包含公民的人身、家庭信息、住宅、个人邮件使用情况、收养秘密、个人储蓄情况、疾病等信息,他人不得擅自公布和宣扬。然而随着科技发展,一些新的、潜在的、可能在某一段时间内略有争议的信息也不断被人们所意识到,并被纳入个人隐私范围之内,比如DNA数据。去年生效的欧盟"通用数据保护法"(GDPR),则将其保护的个人隐私数据定为基本的身份信息、如IP地址和cookie数据等网络数据、医疗保健和遗传数据、生物识别数据、种族或民族数据以及政治观点。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

事实上,隐私问题由来已久。但正如美国学者Igo所指出的,尽管我们觉得如今隐私面临的威胁是空前的,但自从明信片被发明以来,每一代人都有过这种感受。如今真正让我们感到恐慌的是隐私受威胁的大规模和隐蔽性。

首先,互联网时代带给了我们无数便利。更多的时候,这些便利是我们作为用户被选择的结果——用户根本没有选择的余地,就作为样本被收进了数据库,成为无数商业公司分析的对象。

其次,网络公司收集数据的危险,并不在于用我们的数据来推销商品。危险在于,我们的数据很容易落入那些远非善意的第三方之手,这个交易完全不透明,使得我们无法对其进行追溯,更无法将数据追回。

最后,我们的个人隐私在不知不觉中受到侵害,我们不知道个人隐私是被谁、被侵害到何种程度。我们的个人照片和视频也许就被用于AI技术的训练,不断提高Deepfake技术、DeepNude的应用。

当发现自己被“一键脱衣”你是否还会期待AI技术的发展?

GDPR是目前最为严格的数据保护法,其保护范围之广、对企业的高要求大大限制了商业公司擅自使用用户数据的行为。但同时,它也引发了很多科学研究人员的担忧,认为法律约束将影响技术创新,尤其是在机器学习、人工智能领域。

例如,华盛顿大学计算机系的教授彼得罗·多明格斯便发推称:"5月25日起,欧盟将要求算法解释它们的结果,深度学习变成违法。"人工智能和机器学习的的发展本身依赖于大量的数据,而各大商业公司收集的用户数据,对于研究而言都是宝贵的材料,缺乏关于人的数据可以预见地会影响技术的发展。

这不禁让人想起那个老掉牙的议题:技术进步、商业发展和法律保护之间"相爱相杀"的关系。我们看到,技术本身存在中立性,但某些商业公司为了自己的利益会破坏这份中立,利用技术去做坏事。与之相对应地,也会有个别公司试图用技术去钳制坏人。比如,在对抗那些侵犯人们隐私的公司上,加州大学伯克利分校和南加州大学的研究人员发明了一套AI识别系统,可以寻找每个人的"软性生物识别"标签,以鉴别AI虚假视频。

从法律层面上来看,一方面也有如欧盟一样的国家或地区,通过立法去惩罚这些为了商业利益侵犯公众权利的人。但另一方面,法律本身的运行机制,决定了法律的制定不可能是激进的,相反总会相对滞后。

展开阅读全文

页面更新:2024-02-13

标签:技术   印度   裸照   开发者   社交   欧盟   色情   隐私   偷拍   期待   女性   法律   商业   数据   用户   科技   视频

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top