网友:对人工智能武器感到莫名的恐怖 警惕AI在军事上的滥用

引言:霍金生前预言——人工智能(Artificial Intelligence,AI)未来或许取代人类;当代牛人马斯克也曾经警告称,人工智能比核武器更危险,摧毁人类就像碾死蚂蚁一样。

马斯克的警告

近些年来人工智能(AI)技术取得了突飞猛进的进步,配备了人工智能的机器人或物变得越来越聪明能干。从疾病诊断到影像艺术创作,从各种家用电器到广泛的工业应用,从地面到外太空等等,人工智能机器踏入的行业以及胜任的工作越来越多。

而一直以来被我们引以为傲的人类所特有的思维、情感、想象力、创意以及与此相关的一些专业对AI的天然防御也在渐渐减弱,机器似乎正朝着拥有一定“自我意识”的方向阔步前进。

AI绘画:机器想象力令人惊叹

在一些科幻作品中,我们经常会看到机器人具备了自我意识,然后反抗人类,并开始发展自己的文明,由于机器人的物质构成、生存能力、智能都要比人类强大,所以人类和AI打仗,几乎没有赢的概率,尽管从现在来看,人工智能还处于人类控制阶段,毕竟人工智能需要进行编码,这就意味着,真正强大的人工智能也是依靠程序员来完成的,但从长远角度来看,这是非常不确定的。

如果未来,人工智能掌握了自我意识程序,那么就意味着它已经能够摆脱人类的控制,到那个时候,绝大多数的体力劳动、设计和研究、娱乐、社会工作都将会被人工智能代替,最主要的一点就是,人工智能不会再被人类约束。万一,人工智能,尤其是AI武器想要反抗人类,那么我们将根本无法抵抗。

什么是人工智能?

所谓人工智能,就是机器感知后采取行动,并希望所选择的行动能够达到既定目标。

人工智能研发濒临危险时刻吗?

提出这一观点并加以验证的人,是美国加州大学伯克利分校的计算机学教授、人工智能与人类兼容中心主任斯图尔特·罗素(Professor Stuart Russell),他认为人工智能的研发目前处于非常危险的境地。

“人们对人工智能发展的担心有两个方面:一,虽然目前的算法还远远达不到通用人工智能的水平,但数以亿计的算法同时进行,对世界的影响力仍然很大;其二,它是真真切切正在发生的事情。绝大部分科学家认为,通用人工智能极有可能在我们这一代,或者在我们下一代的有生之年出现。”

“如果通用人工智能是在目前世界地缘政治分裂、对立的情况下产生,而且是在谁掌控了人工智能谁就掌握了世界的理念下研发的话,那么我认为结果应该是最糟糕的。”

大国竞赛,人工智能的军事用途?

在十年前人们还一直在谈论的人工智能武器,现在已经开始制造出来,并被少数国家的军队在战场上试验使用。人工智能运用到军事战争中已经越来越可能成为现实。

在2017年的一部电影《杀戮机器人》中,一种直径约8厘米的小型四轴无人机,它可携带炸药,可以通过靠近敌人后爆炸置敌人于死地。人们最开始对这个东西的反应是不屑一顾,许多人认为这只是科幻,几十年内都不用担心这玩意。然而,就在不久之后,土耳其制造商STM就宣布了一种小型便携式无人机Kargu,它就像是电影《杀戮机器人》中的同类武器,不过稍大些。

特别值得注意的是,当今世界上的军事强国纷纷把注意力转向人工智能武器的开发。以中美两国为例。美国波士顿早在上世纪八十年代就开始研制如今已被人们耳熟能详的“机器狗”了,而这种军用机器人早在10多年前就被送上了战场。

波士顿机器战士

中国人工智能厚积薄发,目前在该技术领域处于世界前列。在近几年里中国加强了对人工智能武器的投入研发力度,代表作之一就是国产“红翼”前锋战斗机器狗。它能灵活避障,还配备了自动步兵武器(冲锋枪、小型火箭炮),将成为未来巷战利器。

国产战斗机器狗

人类应该害怕人工智能吗?

说不害怕肯定是假的。人类对于未知的或者可能远远超出自身能力的事物,在拥有好奇心的同时往往会产生一种深深地恐怖感。

就好像某天早上醒来,当我们看到铺天盖地的外星人舰队出现在头顶的天空中,你会作何反应?

当然,这不是说我们现在害怕明天早晨起床笔记本电脑会实施谋杀,而是害怕它未来会出错。不过,谁能保证人工智能在未来的某一时刻就一定不会反噬我们,更何况是高度智能化、杀伤力巨大的人工智能武器!

来自网友的担心



写在最后:

迄今为止,虽然人类在AI领域已经取得了惊人的成就,但仍然还有极大的提高空间。可以预见人类将越来越依赖超级强大的人工智能,人工智能的发展必将导致“人类历史上最深刻的变化”。

也有专家提出一种新观点:我们应当通过研究人类自身未来的可能发展,来想象人类未来可能的存在形态。换句话说,人类目前正在做的最重要的事情或许就是开发自己未来的继承者——人工智能。但这个“继承者”犹如一把“双刃剑”,存在利和弊。

有利的一面:除了前面提到的有助于使人们从生产中得到解放,带给人类更高更好的生活质量的以外,假设有一天地球没了,在人类消亡之前,我们的超高人工智能不仅能够代替咱们前往浩瀚宇宙执行星际移民,还能在不依赖人类支持的情况下具备在外行星上自行生存发展的能力,代人类文明长久延续下去。

不好的一面:特别担心AI在军事上的滥用导致“机器人”杀“人类”。用人类创造的科技来打人类自己,注定是没有胜利可言的悲剧结局。这大概就是许多网友内心里对AI武器感到不寒而栗的根本原因。

所以,无论是霍金的预言还是马斯克的警告,也许现在看来就是杞人忧天,但随着正在不断成熟的人工智能技术,我们不应该只看眼前而不关注更长远的未来。人工智能系统在军事上的应用,对人类文明是福还是祸?大家怎么看。

●申明:文中部分内容及图片来源于合法公开资料,仅供读者参考。

展开阅读全文

页面更新:2024-04-02

标签:人工智能   霍金   波士顿   武器   军事   机器人   害怕   人类   机器   未来   恐怖   网友

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top