杀手机器人:我们应该担心它们吗?

在2000年初,很多专家预言,对于未来的战争,大多数实际战斗将由小型机器人完成,而士兵只负责“建造和维护这些机器人”。

在最近十年,专家的预言已经成真,现在军事冲突中机器人在战斗中发挥了关键作用。无论是无人机还是排除炸弹的机器人,它们在战场上已经崭露头角。

杀手机器人:我们应该担心它们吗?

图1:美国空军MQ-1B捕食者无人机

目前的战斗机器人需要操作员直接操控,并在敌人交战中杀死敌人。但是,未来的机器人将能够自动跟踪和杀死机器人。在战斗中,这种功能将非常有用。前线的战场将没有人类士兵,大量的机器人在天空和地面自动巡逻或直接战斗。

但是,目前开发这些杀手机器人出现了问题。在非常原始的水平上,一个自动杀人机器人可能由安装的机枪组成,该机枪会四处乱转并任意杀伤。但是,要使该机器人在战斗中真正有用,它还必须能够将敌人与非战斗人员区分开来,然后做出杀死敌人的决定。这两个步骤为部署杀手机器人提出了主要挑战。

第一步,目标识别,可以通过生物识别和传感技术的进步来完成。如果目标是已知的,则机器人可以通过面部识别,语音识别,步态分析甚至手机信号来识别它们。如果不知道目标,例如机器人在寻找敌人,这将变得更具挑战性。如果敌人首先与机器人交战,则机器人可以简单地使用声学三角测量来回击以识别射击源。万一敌人不开火,机器人将不得不依赖最新行为意图预测。


杀手机器人:我们应该担心它们吗?

图2:《终结者3:崛起的世界》上机器人

传统上,决定参与的下一步涉及人类判断,原因有两个。首先,在战争迷雾中,确定目标始终存在不确定性。其次,射手必须权衡与交战有关的任何附带损害。但是,计算机视觉的进步应允许机器人观察环境并根据一系列复杂算法做出这些决定。

尽管可行,但与这些过程相关的技术还很不成熟且不可靠。但是,随着检测算法和计算机视觉的提高,这些挑战将得到解决。由于技术很快将不再是限制因素,因此有两个更广泛的问题将限制杀手机器人的发展。

第一个问题涉及确定敌人将如何对付这些杀手机器人。最合乎逻辑的对策是创建“杀死机器人”的机器人。这样一来,就会引发自主军备竞赛,不同的军人将争相打造具有最快杀伤时间的机器人。军备竞赛通常是昂贵的,另外,随着机器人的杀伤时间缩短,附带损坏的可能性会增加。

更大的问题是允许机器人决定杀死的伦理。特别是,如果社会不同意机器人的参与决定,谁将负责?假设机器人在误将平民识别为敌人后摧毁了建筑物,杀死了多名平民。编写算法的程序员会负责吗?还是指派机器人执行任务的人负责?还是技术上拥有机器人的指挥官负责?这种道德难题构成了国际社会禁止全自动杀伤机器人的背后根本逻辑。


杀手机器人:我们应该担心它们吗?

毫无疑问,机器人将继续在战场上发挥关键作用。但是,战斗的核心功能(杀死敌人)将需要人类的参与。尽管使用当前技术在技术上是可行的,但杀手机器人的伦理学和社会意义将至少在目前为止阻止其在战场上的使用。


展开阅读全文

页面更新:2024-04-08

标签:机器人   杀手   无人机   军备   机枪   算法   平民   士兵   逻辑   敌人   有用   担心   机器   人类   目标   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top