被神话了的AI,其实,人工智能很容易被骗!

被神话了的AI,其实,人工智能很容易被骗!​要说2017年什么最火?

恐怕莫过于人工智能(AI)!

在过去的一年里,百度,腾讯,阿里巴巴,京东,亚马逊,苹果,谷歌等国内外互联网科技巨头纷纷宣布进军人工智能(以下简称AI)领域!

第四届乌镇互联网大会上亮相的众多黑科技——AI产品!

中国围棋第一人柯洁惜败阿尔法狗,百度最先将无人驾驶汽车开上了北京五环,而后又将无人驾驶开往雄安新区!

这一切,无不向我们展示了AI的强大与魅力!

AI似乎也被人们捧向了神坛,被认为是无所不能!

然而,今天,八斗君却要泼一盆冷水,揭一揭AI的短处!

被神话了的AI,其实,人工智能很容易被骗!

正所谓,失之毫厘,谬以千里

或许,一个对于人类来说简单至极的任务,到了AI面前却成为巨大的挑战。

不能只听八斗君信口雌黄,空口无凭,咱们举例说明!

咱们先看一下属于AI的一个重要领域——图像识别AI模型。

据八斗君了解,图像识别是AI最早取得重大突破的领域。

可以这样说,图像识别能力的发展实际上是整个AI产业能力发展的缩影,也是AI融入各行各业发展的基石!

早在2012年,谷歌就构建神经网络模型,通过自主学习YouTube上的图像资料,让神经网络模型具备了对于猫的识别能力,从而掀起了构建AI模型的行业热潮。

然而,图像识别AI模型作为AI发展的基础,却如同三岁孩童般十分容易被欺骗。

这无疑是十分可怕的!

比如,曾经轰动美国的黑猩猩事件!

被神话了的AI,其实,人工智能很容易被骗!​2015年6月,一位黑人程序员在使用谷歌的AI照片分类模型对自己的照片进行自动分类标注时,惊奇地发现他的一位黑人好友的照片被打上了“猩猩”的标签。

他愤而将此事发布在互联网上并得到高度关注。

可以想象,这种事情发生在一向强调反对种族歧视的美国,几乎可以说得上是不能容忍的事情。

按理说,经过此事之后,再加上这几年的飞速发展,AI技术——图像识别AI模型应该已经具备了更加精确的识别能力。

然而,事实并非如此!

据八斗君了解,麻省理工计算机科学和人工智能实验室的实验人员于2017年10月完成了一个有趣的实验——他们通过对于被判别物体的表面和颜色进行特殊处理,单纯改变表面材质和颜色,从而达到欺骗AI的目的——让Google Inception v-3图像识别AI模型做出错误判断,让其把海龟识别为与之天差地别的枪支。

另外,谷歌公司自己的研究团队在2017年12月创造出一种被称为“对抗性补丁”的物体,能够成功干扰现有的谷歌图像识别AI模型,让其把被识别的物品变成一个有着天差地别,毫不相干的物品。

正常状态下,图像识别AI模型能够准确识别物品。

但是当放置了这个(只要占据不到10%的识别面积,就可以达到90%以上的攻击成功率。而且利用“补丁”攻击的过程非常简单。这些干扰性“补丁”可以很方便地打印出来,添加到任何场景或图片中的)“对抗性补丁”后,图像识别模型立即产生错误判别。

被神话了的AI,其实,人工智能很容易被骗!​除此之外,2017年9月,伯克利等四所大学的联合项目组进一步研究了AI在自动驾驶系统中的应用时发现,只要在现有的交通标志上粘贴少量图形,就可以诱导自动驾驶系统把“停牌”标志识别为“限速”标志,从而导致系统发出错误的指令,造成意外的发生!

从这些案例我们不难看出,都是对被识别图像进行少量的(人类肉眼可观察到的)显著修改来成功的欺骗AI模型!

被神话了的AI,其实,人工智能很容易被骗!​ 八斗君承认,AI确实很强大,它取代了高强度的劳动,辅助了人类更好的生活,让我们生活的变得更加舒适,方便,快捷!

然而,AI能力固然强大,但是,现阶段的AI也并不是无所不能的。

据八斗君了解目前的AI技术仍处于最初级阶段。

现有的AI是非常容易被欺骗的,而且欺骗的操作可以非常简单。

就像最初的手机——大哥大一样,只能单纯的通话,相信在人类智慧的不断努力下,也能普通今天的智能手机一般,成为人类最亲密的伙伴,无所不能的存在!

展开阅读全文

页面更新:2024-03-24

标签:人工智能   天差地别   神经网络   美国   无所不能   美文   补丁   模型   图像   人类   错误   神话   物品   领域   能力

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top