应该警惕“自主性人工智能”用于战争的新型态

上个月我们看到了这样一幕

应该警惕“自主性人工智能”用于战争的新型态

应该警惕“自主性人工智能”用于战争的新型态


阿塞拜疆的无人机对亚美尼亚军队不断实施精确打击,准确摧毁亚美尼亚的军事阵地和坦克部队。

这让很多平时不关心“杀人武器”发展的朋友大为惊叹,阿塞拜疆的无人机怎么这么厉害?打的亚美尼亚毫无还手之力。

在无人机面前,亚美尼亚形同待宰羔羊,坦克还适合现代战争吗?

应该警惕“自主性人工智能”用于战争的新型态


阿塞拜疆的无人机是从土耳其进口的TB-2,充其量只是款中量型无人机,土耳其研发制造“参考”的是中国的彩虹-3无人机。

TB-2不是一款最先进的无人机,和中美等大国的顶尖无人机相比还是有差距。

而土耳其TB-2无人机之所以在战争中如此强大,如入无人之境,想打哪打哪,最主要的原因是亚美尼亚完全崩溃的防空体系。

换一个稍微有点防空能力的国家,阿塞拜疆这类无人机早就被消灭了。

然而这场阿塞拜疆和亚美尼亚的战争,却因为大规模的使用无人机,受到了联合国的高度关注。

上周联合国纽约总部,紧急召开视频会议,探讨“禁止自主武器公约”的进程

应该警惕“自主性人工智能”用于战争的新型态


在联合国的框架下有多种“武器公约”,这些重要的武器公约是保障人类不受到“极恶武器”袭击的重要限制

你比如最著名的《核不扩散条约》,五大常任理事国都签署了,全世界190个国家和地区也随后签署了。

还有《禁止化学武器公约》,这也非常著名,化学武器也是可怕的大规模杀伤性手段,被明文禁止,目前有130个国家签署。

另外还有大家可能不熟悉的《特定常规武器公约》,这是在去核武,去化武外的禁止使用的武器,比如

1,禁止使用碎片在人体内不可检测的武器,像是地雷爆炸的碎片,炸入人体内,必须可以检测,如果使用极小的,连X光都不可检测到的碎片,那就不行。

2,禁止燃烧武器

3,禁止激光致盲武器

除了这三类重要的“全球性武器公约外”,这个月有鉴于“阿亚战争”一部新公约在联合国进入了严肃的探讨阶段。

那就是《禁止自主武器公约》

应该警惕“自主性人工智能”用于战争的新型态


所谓的自主武器,就是在无人干预的情况下进行独立搜索,识别,杀戮的信息化时代下的新式武器

应该警惕“自主性人工智能”用于战争的新型态


像是自主坦克,自主无人机,自主舰艇等

这些“自主武器”,未来很可能会被联合国禁止。

阿塞拜疆那些TB-2无人机,只能算是个自主武器雏形,毕竟它不是无人机自主搜寻目标,自主打击,而是有人类操控者在操控无人机部队,并且对无人机下达攻击命令的。

但在未来,随着信息科技的不断进步,无人操控的杀人武器,一定是未来战场的新形态战争方式。

自主武器,也始终是美国,中国,俄罗斯等国家的重点研究方向,谁能研究出真正强大的自主武器,谁就能在军事领域占有强大优势。

应该警惕“自主性人工智能”用于战争的新型态


波士顿动力公司,这群看似憨态可掬的机器人,稍加改造未来就是战场上的自主杀人机器。

他们会自己寻找敌人,然后杀死敌人,全程没有人类参与。

应该警惕“自主性人工智能”用于战争的新型态


联合国秘书长古特雷斯在倡导设立《禁止自主武器公约》时说:

“人类必须禁止能够自己下达杀人命令的自动武器。”

“一种具有自主权和杀人权的,并且在没有人类直接参与的情况下,将人类生命夺走的自主机器,在政治上是不可接受的,在道德上也是令人厌恶的,必须受到国际法的禁止。”

联合国秘书长“古特雷斯”是坚定的“反自主武器者”

人类会有战争,但战争中所有的杀戮都必须有人类直接参与,士兵可以杀死敌对的士兵,但没有人类操控的,在战场上自动搜索敌人士兵,又自动消灭敌人士兵的自主武器,是绝对不允许存在的。

应该警惕“自主性人工智能”用于战争的新型态


联合国秘书长的这番讲话,立刻受到:

国际机器人武器控制委员会(International Committee for Robot Arms Control)

停止杀人机器人运动联盟(Campaign to stop killer robots)

以及联合国人权组织等机构的高度赞同

就在几星期前,美国搞了一场自主武器的“杀人实验”

应该警惕“自主性人工智能”用于战争的新型态


这是一场由美国最强大的国防高级研究计划局(DARPA)主办的,洛克希德马丁等美国高级军火商参与的人机对战比赛。

人类顶尖战斗机飞行员与机器智能算法进行一场空对空的空战对抗。

最终人类完败。

由Heron Systems所创建的人工智能算法完胜F16战斗机飞行员。

Heron Systems的人工智能空战系统,全程没有人类进行干预,完全自主运行。

未来美国想要打造的趋势就是,战斗机都使用这套系统,去对付他国的战斗机飞行员。

比如美中或者美俄发生军事冲突,双方战机升空,空中交火,但美国战斗机用的是智能系统,它完全没有人类干预,自己在空中与俄罗斯战斗机交火。

但俄罗斯战斗机里坐着的是人类,这就很显然的造成了“自主武器”自己杀死人类的情况。

无人驾驶,无人操控的自主战斗机,会很轻易的战胜人类飞行员。

而就算人类飞行员能够偶尔在空战中战胜自主战斗机,那对于无人机来说,也只是损失一架飞机而已,并没有人类伤亡。

再发展下去,就会出现一种叫做“战斗无人机群”的大规模杀伤性自主武器。

这东西可太可怕了。

应该警惕“自主性人工智能”用于战争的新型态


美国空军战略威慑研究中心的最新报告指出:

“信息时代下的无人机群可在不受人类监控情况下自主飞行、自主攻击。这些无人机群携带足够弹药后,随时能变身为新的大规模杀伤武器,对目标或区域造成巨大杀伤。”

2018年,英特尔公司在加利福尼亚举办了破世界纪录的无人机灯光秀,2018架无人机升空,在夜空中组成各种图案。

应该警惕“自主性人工智能”用于战争的新型态


应该警惕“自主性人工智能”用于战争的新型态


但没过多久,美国英特尔的记录就被中国打破

应该警惕“自主性人工智能”用于战争的新型态


珠海3051架无人机同时升空,在夜空中也组成各种美妙图案。

中国也好,美国也罢,所展现的都是对于大型无人机群的智能操控实力。

试想一下,当敌国的防空体系被摧毁后,3051架无人机装上枪支,炸弹或者导弹,向敌国军队蜂拥而去,那就是一场赤裸裸的,绝对冷血的战场屠杀。

而“国际机器人武器控制委员会”的专家不讳言的说:

一千架无人机,就有一千个潜在错误。

而且庞大的无人机群彼此相互通信,一架无人机的错误很可能会在整个机群中传播。

应该警惕“自主性人工智能”用于战争的新型态


即便无人机被设置了很优秀的敌我识别系统,很优秀的防平民被袭击系统,也可能因为一架无人机的出错,而导致一艘游轮被误认为是航空母舰,地面的一群平民被误认为是全副武装的敌军。

另外,就算你的无人机智能系统很优秀,你也无法排除在敌军的电子干扰下,无人机的识别系统出错,而一旦出错,无人机群就将化身为大规模屠杀平民的死神。

还有更重要的一点是,无人机群的成本要远比战斗机群低得多得多

光一架有人战斗机的成本就远高于无人战斗机,更何况培养一个优秀飞行员所需要花费的高昂成本。

而无人机群,一不要驾驶舱,二不要逃生系统,更不需要驾驶员,只要一套自主智能攻击系统即可。

这也对于现如今的防空体系带来很大挑战。

应该警惕“自主性人工智能”用于战争的新型态


2018年几十架极简陋的无人机带着炸弹,按预先设定好的程序攻击了俄罗斯位于叙利亚的Khmeimim空军基地。

炸弹在俄罗斯空军基地的S400阵地爆炸,媒体报道称几十架无人机群,造成了俄罗斯价值3亿美元的S400导弹阵地的损失。

同样的情况也发生在利比亚。

应该警惕“自主性人工智能”用于战争的新型态


还是土耳其的TB-2型无人机,摧毁了9处利比亚昂贵的防空系统

无人机对于现代昂贵的防空系统,构成巨大威胁。

直白点讲就是,矛的成本太低,而盾的成本太高。

应该警惕“自主性人工智能”用于战争的新型态


美国军事专家举例,一艘美军伯克级驱逐舰造价18亿美元,而18亿美元可以采购铺天盖地的无人机群。

在没有强大且完善的“电子炮防空火力”的保护下,别说18亿了,就是1亿美元的无人机群,都能使用群狼战术,吞噬昂贵的伯克利级驱逐舰。

但是同样的,美国也可以使用航母搭载大量无人机群,在未来的制海权争夺上,以很低的代价摧毁对手高昂的战舰甚至航母。

矛的成本,要低于盾的成本。

1亿美元的无人机群换18亿美元伯克利,稳赚不亏(可能还不用1亿美元)

美国的五角大楼已下令全力支持“无人机群”的研发,尽管研发人员意识到这种研究非常危险。

应该警惕“自主性人工智能”用于战争的新型态


另外在未来,自主工具可能会成为进行化学攻击,放射物质攻击,生物武器攻击的好方法

自动驾驶汽车不会被病毒感染,不会被剧毒化学品毒死,自主无人机可以根据风向和湿度调整投放轨迹,甚至更小更静音的飞行器可以飞入大楼进行精准投放

美军在叙利亚搜获的伊斯兰国袭击计划表明,恐怖分子对于使用无人机进行化学攻击非常感兴趣。

而当人类把何时发射核武器的权力交给机器人时,整个人类的命运都会受到威胁。

这是有前车之鉴的。

1983年冷战时期,计算机就差点造成了一场核大战的爆发。

应该警惕“自主性人工智能”用于战争的新型态


1983年彼得洛夫就职于莫斯科以南100公里的秘密导弹预警中心,这是前苏联的一个高度机密机构,连他的老婆和孩子都不知道他做的工作是什么。

1983年9月1日,苏联击落了韩国747客机,机上269人全部遇难,美苏关系空前紧张。

几十天后,9月26日零点,苏联的导弹防御系统OKo突然警铃大作

彼得洛夫赶去查看,惊恐的发现美国蒙大拿州的军事基地朝着苏联方向发射了一枚洲际核导弹。

警报声不断在预警中心内刺耳的回响,墙壁上打出红色的“START”(导弹发射)字样。

随后报警系统又显示,又有至少4枚洲际核弹射向苏联。

周围同事全都陷入恐慌,但电脑读数很齐全,充分说明了真的有洲际导弹袭来。

只要此时彼得洛夫向上级汇报美国核弹打来了,就不会有人质疑。

只要一个电话打到克里姆林宫,可以肯定的说,在当时的紧张的政治环境下,苏联高层一定会下令发射核导弹还击。

那么,美苏核战,立刻爆发。

应该警惕“自主性人工智能”用于战争的新型态


但彼得洛夫冷静的做出了自己的判断,他认为这是一次预警系统的误报

而这个判断,是要承担巨大的政治风险的

如果电脑预警系统没错,而彼得洛夫判断错了的话,那很快美国核弹就会在苏联爆炸。

谁能承担得起这个责任?

在美国发射导弹后,苏联方面只有很短的时间决定是否作出报复性反击。

但是彼得洛夫依旧坚信是电脑误报,他打电话给军方总部,报告说预警仪器刚刚出现了严重的系统故障。

毫不夸张的讲,彼得洛夫的冷静,拯救了世界,如果当时的预警中心官员,直接按照电脑读数的判断,向高层汇报的话,那苏联的核武反击就是必然的

后来这件事被苏联高层压了下来,当时没人知道世界躲过了一场核大战,因为苏联害怕一旦公布重要的预警系统发生错误的话,那等于是在给伟大苏联脸上抹黑。

一直到苏联解体后,相关内幕才被解密,大家也知道了曾经有个普通的苏联中校,拯救了世界。

应该警惕“自主性人工智能”用于战争的新型态


而今天,当越来越多的人工智能进入军事领域,尤其是自主军事武器成为所有大国必然发展的未来趋势时

我们又该如何画下这条危险的边际线?

在联合国发言的“停止杀人机器人运动联盟”的参会代表说:

“人类永远不该将决定文明命运的事交给智能机器,即便那个‘智能机器’,真的非常非常智能,甚至是无所不能,号称一千亿年才会出错一次,那也不该让智能机器掌握人类命运。”

在经历过“阿塞拜疆”和“亚美尼亚”战争后,联合国的《禁止自主武器公约》正式被提上日程,这是一件好事。

毕竟如果《禁止自主武器公约》毫无关注度的话,它又怎么可能成真呢?

那么你觉得,人类应该制造和发展自动寻找,自动杀人的自主武器吗?

展开阅读全文

页面更新:2024-03-31

标签:阿塞拜疆   洛夫   亚美尼亚   彼得   苏联   机群   联合国   无人机   俄罗斯   人工智能   美国   战斗机   公约   自主   武器

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top