我们会给军事机器人颁发杀人许可证吗?

随着AI战争机器人的改进,战争的本质发生了变化


image1920年,捷克作家卡雷尔·卡佩克(KarelČapek)创作了戏剧RUR(罗斯苏姆的通用机器人,“罗斯苏姆通用机器人”),在其中他给世界一个单词“机器人”。在他的戏剧中,一切都始于人造人-在工厂工作并生产廉价商品的机器人。一切都以机器人摧毁人类这一事实结束。因此,长寿的NF情节诞生了:机器人失控,变成了势不可挡的杀人机器。 20世纪的文学和电影继续向我们提供破坏世界的机器人的例子,好莱坞不断将其转变成重磅炸弹的特许经营权:黑客帝国,变形金刚和终结者。

最近,由于多种情况的支持,人们对将小说变为现实的恐惧得到了支持,其中包括AI和机器人技术的改进,伊拉克和阿富汗的军用无人机地面机器人。最大的力量正在开发具有不同程度的自主权和死亡率的智能武器。他们中的大多数人很快就会受到人们的远程控制,没有他们的命令,机器人将无法拉动扳机。但是,很有可能-并且据某些人(甚至毫无疑问),在某个时候机器人将能够完全自主地操作,并且Rubicon将在军事领域切换:这是第一次,一组微芯片和软件将决定一个人的生命或死亡。

毫不奇怪,杀手机器人的亲切昵称是威胁,引发了激烈的辩论。在争端的对立面是那些担心自动武器会发动全面战争并破坏文明的人,以及那些声称新武器只是另一类精确制导武器的人,他们会减少而不是增加受害者的数量。十二月,一百多个国家将在日内瓦举行的北约裁军会议上讨论这个问题。

image
人工控制的无人机

image
“方阵”炮可独立发射

去年,当一群领先的AI研究人员呼吁禁止“在没有有意义的人类控制的情况下操作自主进攻性武器”时,这种讨论就成了新闻。在给国际AI会议的一封公开信中,一组研究人员指出,此类武器可能导致国际AI军备竞赛,可用于杀害合同,破坏国家稳定,压制人民和选择性摧毁种族。

这封信是由2万多人签名的,其​​中包括著名的物理学家斯蒂芬·霍金和企业家伊隆·马斯克。后者去年向波士顿研究所捐赠了1000万美元。致力于保护人们的生命免受不友好的AI的假想威胁。组织该著作的学者-加州大学伯克利分校的Stuart Russell,麻省理工学院的Max Tegmark和澳大利亚新南威尔士大学的Toby Walsh-在IEEE Spectrum杂志的一篇文章中扩大了他们的立场。例如,在一种情况下,“一个人可以在黑市上放置的大量廉价微型机器人可能会被杀死,而符合用户标准的成千上万的人将能够被杀死”。

他们还补充说,“自主武器可以成为大规模杀伤性武器。 “一些国家可能禁止使用它,而其他国家,当然还有恐怖分子,则不太可能放弃它。”

很难说,一场新的军备竞赛可能会造就智能,自主和机动的杀戮机器,它将惠及全人类。但是,这场比赛已经开始了。

自主武器已经存在了几十年,尽管到目前为止,其稀有标本主要用于防御。一个例子是Phalanx,它是一种由雷达引导并安装在美国海军战舰上的计算机控制炮。她可以自动检测,跟踪,评估和射击接近的导弹和飞机,而她认为这是威胁。在完全自主的模式下,根本不需要人工参与。


竖琴无人机摧毁目标


DoDAAM Systems展示了Super aEgis II机器人手表的功能,

最近,军事开发商开始制造进攻性的自主机器人。该公司以色列航宇工业公司已生产哈比无人机和Harop,导致敌方防空系统的无线电波,并通过碰撞杀死他们。该公司声称其无人机在世界各地销售良好。

韩国公司DoDAAM Systems开发了Super aEgis II机器人手表。他用机关枪射击,并使用计算机视觉检测并向3公里外的目标(人)射击。据称,韩国军方在与朝鲜接壤的非军事区对这些机器人进行了测试。 DoDAAM已经向其他国家/地区销售了30台此类设备,其中包括来自中东的几家客户。

如今,与几乎始终由人控制的机器人武器相比,具有高度自治性的系统已经很少,尤其是在发射过程中。分析人士预测,随着军事事务的发展,武器将拥有越来越多的自主能力。

位于华盛顿的新美国非政治组织的军事机器人专家彼得·辛格说:“战争将完全不同,自动化将在速度至关重要的问题上发挥作用。”他将了解到,在以后的战斗中(例如在不同的无人机之间进行的战斗中,或者当自动舰与自动潜艇相遇时),只有几分之一秒优势的武器将决定战斗的结果。 “可能会发生突然而激烈的冲突,其中根本没有时间让人们及时了解最新情况,因为一切都将在几秒钟内决定。”

美国军方已经描述了其使用无人系统发动新型战争的长期计划,但是他们是否打算武装这些系统仍然未知。开3月在华盛顿邮报论坛上,美国国防部副部长罗伯特·沃克(Robert Work)的工作是确保五角大楼紧跟最新技术,他指出需要在AI和机器人上进行投资。据他说,在战场上越来越多的自治系统是“不可避免的”。

关于自动武器,沃克坚称,美军“不会赋予机器做出致命决定的权力”。但是,他本人补充说:“如果对手似乎准备转移这种权力……我们将不得不就与他竞争的问题做出决定。我们尚未完全弄清楚,但我们对此进行了很多思考。”


弗拉基米尔·普京(Vladimir Putin)在去年的示威活动中在一辆ATV上观看了一个人造机器人


中国公司,中国航天科技公司,

俄罗斯和中国的CH-5无人机的首次飞行在开发陆上,海上和空中行动的无人作战系统时坚持了类似的策略,尽管该系统虽然是武装的,但仍依赖于活着的运营商。 Russian Platform-M是一款带有遥控器的小型机器人,配备有卡拉什尼科夫突击步枪和榴弹发射器。它类似于美国Talon SWORDS系统,这是一种能够携带M16和其他武器的地面机器人,该系统已经在伊拉克进行了测试。俄罗斯还制造了无人飞行器Uranus-9,配备30毫米大炮和制导反坦克导弹。去年,俄罗斯人向普京展示了一个军事类人机器人。

中国不断增长的军用机器人库包括许多用于攻击和侦察的无人机。 CH-4-无人机长效,让人联想到美国“捕食者”。 Divine Eagle-一种高空无人机,用于搜寻隐形轰炸机。此外,在中国的各种军事演示中还展示了带有类似于Platform-M和Talon SWORDS的机枪的机器人。

这三个国家正在着手建立武装机器人,并在增加自主权的同时强调了人们在工作中的作用。禁止自主武器将出现一个严重的问题:它不一定适用于几乎所有的自主武器。军人总是可以秘密地开发由人控制的武装机器人,但是只要按一下按钮,便可以进入离线模式。耶鲁大学伦理与技术专家温德尔·沃拉赫(Wendell Wallach)总结道:“机器人签订一项武器限制协议将非常困难。”他在一次会议上说:“自主和非自主武器之间的区别可能只是一行代码。”

在电影中,机器人有时会变得异常自治,直到他们几乎从零开始意识到这一点,这使人们感到惊讶在现实世界中,尽管人们普遍对机器学习进步感到兴奋,但机器人却逐渐获得了自主权。自主武器也可以期待同样的结果。

杀手机器人选集



image
«R.U.R» 1920 – ,

image
«2001: » (1968). ,

image
« » (1973).

image
« » (1982). -

image
«» (1984). - -800

image
(1987). – , .

image
(1999).

image
« » (2004). , ,

image
我,机器人(2004)。人形机器人绕过了机器人三定律,在《芝加哥

image
变形金刚》(Chicago Transformers,2007年)中惹上麻烦。威震天领导的一群外星机器人试图歼灭所有人。

“通常,当人们听到自动武器时,他们代表终结者,并开始说:“我们做了什么?”保罗·沙尔(Paul Scharre)说,新的美国安全研究小组在华盛顿的中心。 “但是军方不太可能想做这种自动武器。”据他说,最有可能的是,自治系统会攻击雷达,坦克,轮船,潜艇和飞机等军事设施。

确定目标的任务-确定对象是否属于敌人-是AI最关键的任务之一。可移动的目标,飞机和导弹具有可追踪的轨迹,并以此为基础来决定放下物体的决定。这就是方阵炮在美国军舰上的工作方式,以色列的铁穹导弹拦截系统也是如此。但是,当选择人员作为目标时,这种识别很复杂。即使在理想条件下,对于机器人而言,识别人们一直在应付的物体和环境的任务也可能过于复杂。

即使人偷偷摸摸地移动,计算机也可以分辨出他的身材。但是该算法很难理解人们正在忙什么,他们的肢体语言和面部表情会表现出什么意图。一个人会举枪还是耙?他是抱着炸弹还是婴儿?

斯卡雷(Scarre)声称,机器人武器试图自己选择目标,可以在遇到困难时省下来。他认为,从安全,合法性和道德的角度出发,最好的方法仍然是人们与机器人一起工作的这种策略和技术的发展。他说:“军方可以在先进的机器人技术和自动化上进行投资,但与此同时,也要让该人处于控制链中,以就目标做出决定,以确保安全。”毕竟,人们更加灵活,可以更好地适应我们可能无法编程的新情况。在战争中,有一个对手试图打败您的系统,欺骗他们并入侵系统,这尤其重要。”

毫不奇怪,来自DoDAAM的韩国人生产的手表机器人具有严格的自治限制。现在,直到有人确认目标并发出“开火”命令,他们的机器人才会射击。去年一名公司工程师告诉BBC: “原始版本是自动消防系统。” “但是所有客户都要求将安全程序纳入其中……他们担心这把枪可能会弄错。”

其他专家认为,避免自动武器(尤其是涉及平民的自动武器)致命错误的唯一方法是制定适当的计划。 “如果我们如此愚蠢以至于我们继续在战场上互相残杀,并且如果越来越多的力量转移到机器上,我们至少可以确保它们以道德的方式开展工作,” IT罗纳德·阿金(Ronald Arkin)说道。佐治亚理工学院的专家。

阿尔金(Arkin)坚信,像士兵一样,自动武器必须遵守战争规则和战争法,包括国际人道主义法保护平民并限制武器的威力和类型。这意味着我们必须在他们的程序中引入某些道德品质,以便他们了解不同的情况并区分好与坏。他们的软件必须具有某种道德准则。

在过去的十年中,Arkin一直在研究这种指南针。他使用机器伦理学领域的数学和逻辑工具,将战争法则和战争规则转化为计算机可以理解的变量和操作。例如,变量之一包含道德控制单位的置信度值,即目标是敌人。另一个布尔值表示允许还是禁止武器的杀伤力。最后,阿金提出了一套算法,并借助计算机模拟和简化的战斗场景-例如,一架无人机在空地上攻击一群人-他能够测试自己的技术。

Arkin承认,由美国武装部队赞助的项目尚未进入完成系统的阶段,而创建该项目只是为了证明其可操作性。但是,在他看来,这项工作的结果表明,机器人甚至比人类遵循战争规则的能力还要好。例如,机器人可以比人类更克制地执行威胁生命的动作,只是作为回应而射击。或者,随着平民的接近,即使他们自己被摧毁,他们一般也可以停火。机器人不会受到压力,不满,愤怒,恐惧的困扰-所有这些都会损害人们对正确决策的采纳。因此,从理论上讲,机器人可以超越人类士兵,后者经常(有时是不可避免)在战斗激烈的过程中犯错。

Arkin说:“结果,我们可以挽救生命,尤其是挽救被困在战斗中的无辜人民的生命。如果机器人能够做到这一点,道德就表明有必要使用它们。”

当然,这种观点未被普遍接受。批评者自主武器坚持认为只有先发制人的禁令才有意义,因为这类武器会在幕后出现。“我们无法指出这种射击系统:是的,他是杀手级机器人,”玛丽·韦勒姆(Mary Wareham)说,人权观察大厅经理和库尔统筹竞选禁止杀手机器人(运动到停止杀手机器人)-各个人道主义团体的联盟。 -我们正在谈论以不同方式运作的许多不同武器系统。但是我们担心它们的共同特征之一-缺乏对目标选择和攻击功能的人为控制。“

在联合国,关于能够杀死人的自动机器人的讨论已经进行了五年,但是各国尚未达成协议。 2013年,联合国人权事务特别报告员克里斯托夫·海因斯(Christof Heyns)发表了有影响力的报告,他指出,即使是在开发自动武器之前,各国也很少有机会讨论自动武器的风险。现在,海因斯参加了几次联合国会议,他说:“如果回头看,我会感到有些鼓舞,但是如果您回头看,如果我们不加快行动的步伐,似乎就会遇到问题。”

今年12月,《联合国古典武器公约》将召开一次会议,对五年的工作进行回顾,而自动机器人的问题已提上日程。但是他们的禁令不太可能被接受。这样的决定将需要所有国家的一致决定,而且在如何应对未来将出现的各种自动武器方面,它们之间存在根本分歧。

结果,关于杀手机器人的争议归结为人们的讨论。至少在最初,自主武器将与任何技术相似:可以准确,审慎地,混乱而灾难性地引入。人们将不得不接受指控。因此,问题“自主战斗机器人是个好主意吗?” 不是正确的。最好提出这样的问题:“我们对自己的生活是否足够信任,可以信任机器人?”

Source: https://habr.com/ru/post/zh-CN395139/


All Articles