要说2017年什么最火?
恐怕莫过于人工智能(AI)!
在过去的一年里,百度,腾讯,阿里巴巴,京东,亚马逊,苹果,谷歌等国内外互联网科技巨头纷纷宣布进军人工智能(以下简称AI)领域!
第四届乌镇互联网大会上亮相的众多黑科技——AI产品!
中国围棋第一人柯洁惜败阿尔法狗,百度最先将无人驾驶汽车开上了北京五环,而后又将无人驾驶开往雄安新区!
这一切,无不向我们展示了AI的强大与魅力!
AI似乎也被人们捧向了神坛,被认为是无所不能!
然而,今天,八斗君却要泼一盆冷水,揭一揭AI的短处!
或许,一个对于人类来说简单至极的任务,到了AI面前却成为巨大的挑战。
不能只听八斗君信口雌黄,空口无凭,咱们举例说明!
咱们先看一下属于AI的一个重要领域——图像识别AI模型。
据八斗君了解,图像识别是AI最早取得重大突破的领域。
可以这样说,图像识别能力的发展实际上是整个AI产业能力发展的缩影,也是AI融入各行各业发展的基石!
早在2012年,谷歌就构建神经网络模型,通过自主学习YouTube上的图像资料,让神经网络模型具备了对于猫的识别能力,从而掀起了构建AI模型的行业热潮。
然而,图像识别AI模型作为AI发展的基础,却如同三岁孩童般十分容易被欺骗。
这无疑是十分可怕的!
比如,曾经轰动美国的黑猩猩事件!
2015年6月,一位黑人程序员在使用谷歌的AI照片分类模型对自己的照片进行自动分类标注时,惊奇地发现他的一位黑人好友的照片被打上了“猩猩”的标签。
他愤而将此事发布在互联网上并得到高度关注。
可以想象,这种事情发生在一向强调反对种族歧视的美国,几乎可以说得上是不能容忍的事情。
按理说,经过此事之后,再加上这几年的飞速发展,AI技术——图像识别AI模型应该已经具备了更加精确的识别能力。
然而,事实并非如此!
据八斗君了解,麻省理工计算机科学和人工智能实验室的实验人员于2017年10月完成了一个有趣的实验——他们通过对于被判别物体的表面和颜色进行特殊处理,单纯改变表面材质和颜色,从而达到欺骗AI的目的——让Google Inception v-3图像识别AI模型做出错误判断,让其把海龟识别为与之天差地别的枪支。
另外,谷歌公司自己的研究团队在2017年12月创造出一种被称为“对抗性补丁”的物体,能够成功干扰现有的谷歌图像识别AI模型,让其把被识别的物品变成一个有着天差地别,毫不相干的物品。
正常状态下,图像识别AI模型能够准确识别物品。
但是当放置了这个(只要占据不到10%的识别面积,就可以达到90%以上的攻击成功率。而且利用“补丁”攻击的过程非常简单。这些干扰性“补丁”可以很方便地打印出来,添加到任何场景或图片中的)“对抗性补丁”后,图像识别模型立即产生错误判别。
除此之外,2017年9月,伯克利等四所大学的联合项目组进一步研究了AI在自动驾驶系统中的应用时发现,只要在现有的交通标志上粘贴少量图形,就可以诱导自动驾驶系统把“停牌”标志识别为“限速”标志,从而导致系统发出错误的指令,造成意外的发生!
从这些案例我们不难看出,都是对被识别图像进行少量的(人类肉眼可观察到的)显著修改来成功的欺骗AI模型!
八斗君承认,AI确实很强大,它取代了高强度的劳动,辅助了人类更好的生活,让我们生活的变得更加舒适,方便,快捷!
然而,AI能力固然强大,但是,现阶段的AI也并不是无所不能的。
据八斗君了解目前的AI技术仍处于最初级阶段。
现有的AI是非常容易被欺骗的,而且欺骗的操作可以非常简单。
就像最初的手机——大哥大一样,只能单纯的通话,相信在人类智慧的不断努力下,也能普通今天的智能手机一般,成为人类最亲密的伙伴,无所不能的存在!
页面更新:2024-03-24
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号