如果机器人杀死一个人,谁会被判有罪?

图片

如果您正在寻找即将到来的世界末日的迹象,其中机器人有罪,请注意朝鲜与韩国之间的非军事区。在这里,沿着世界上最坚固的边界,不仅有士兵在监视。


认识SGR-A1,这是三星在韩国开发的一种监视机器人。这个1.2米的单位看上去比一双黑色的金属鞋盒大一点,但是它那毫无生气的眼睛配备了红外端口,可以探测到四公里外的敌人。他的机枪已经准备好了。 

图片

目前,该机器人会通知其创建者坐在控制室中的可疑攻击者。为了使他开火,必须得到人的认可。但是,该机器人也可以在自动模式下工作,可以自行决定先射击。我的同胞们,抵抗是没有用的。

五角大楼和世界各地的军方都在开发一种越来越自主的武器,这种武器已经远远超出了华盛顿在巴基斯坦,阿富汗和其他国家使用的遥控无人机。技术上的进步将使这些新型武器可以选择目标并自行射击,无需人工认可。一些人预测这些机器人将有一天与人类士兵并肩作战。

毫不奇怪,正在杀死机器人的消息使一些人感到紧张。今年4月,由设计师,科学家和人权维护者组成的国际联盟发起了一场反对制造杀手机器人的运动,并呼吁联合国驻日内瓦的外交官。战役者希望禁止“致命的自主武器”的开发和使用,尽管他们认识到,尽管从技术上来说,这种武器从未被使用过。  

“问一个问题很有意义:人类的价值会因为允许机器人杀死人的事实而减少吗?”纽约媒体研究学院助理教授,杀手机器人运动的发言人彼得·阿萨罗说。

自远古以来,这只是哲学家,法学家和科学家一直在努力的一个问题,而世界正在为新机器人的猛烈袭击做准备,我们被告知,这将割草,照顾老年人,教自闭症儿童,甚至开我们的车。这些机器人无法杀死人,但交通官员希望迫使政府和法院考虑许多法律和道德问题。如果我在没有驾驶员的情况下被汽车撞到,该向谁起诉?如果医疗机器人给患者提供了错误的药物怎么办?如果我在地板上打ze时机器人吸尘器不小心吸了头发(那是不久前在韩国的一名妇女的实际情况),该怎么办?机器人可以犯下战争罪吗?

麻生太郎教授最担心的是这最后一个问题。他和人权观察联盟的其他成员声称,如果编程用于区分敌方士兵和平民的自动计算机系统实际上在没有“人的同意”的情况下扳动了扳机,那么将局势保持在非常困难的境地。控制是否出了问题。

如果机器人坠毁并杀死了整个村庄,则您不能将无生命的物体放在国际刑事法院的面前或交给军事现场法院。一些专家说,如果机器人开发人员不认为机器人会发疯,就不能在法律上责怪他们。 

在刑法中,法院必须找出所谓的“男子犯罪”或有罪意愿(来自拉丁文)。但是,他们不大可能发现机器人(在目前人工智能的发展水平下)原则上具有意愿。如果机器人设计者发现机器人由于程序故障而失控,则可能承担责任。但是,他们可能不对杀手机器人的行为负责。

从自动无人驾驶飞机到带有机枪的机器人漫游车,这些杀手级机器人看起来就像什么东西。美国国防部在2012年的一项指令中裁定,“应当设计自治系统,以便指挥官和操作员可以对使用武力进行适当的人为控制。”加拿大国土防部在回应《环球邮报》发来的一封电子邮件时说,“没有开发一种自动致命武器”,但他们的研究机构正在积极参与“无人系统的研究计划”。

尽管至少为加拿大和美国军方制造了机器人,但至少一家机器人公司(位于安大略省滑铁卢的Clearpath Robotics Inc.)反对杀手机器人。 ClearPath联合创始人及其首席技术官Ryan Gariepie表示,排雷或监视而不是杀死,对于自动战斗机器人来说是一个很好的用途,尤其是当此类车辆仅在战斗的一侧时:“机器人可以决定谁可以承受吗? “死刑?一个人有权以这种方式夺取敌方士兵的生命吗?”

不可避免地,关于机器人杀手的讨论围绕科幻小说家艾萨克·阿西莫夫(Isaac Asimov)的故事中的“机器人三定律”展开。第一条法律禁止机器人伤害人类。第二条命令他们只有在不违反第一条法律的情况下才服从人民;第三个命令机器人保护自己的生命-前提是这不违反前两个法律。但是大多数专家说,这些法律在现实世界中几乎没有用:甚至阿西莫夫在他的故事中也显示出它们的缺点。 

但是,美国佐治亚理工学院的罗纳德·阿金教授(Ronald Arkin)是五角大楼项目的著名美国机器人设计师,他声称,可以对杀手机器人或其他自动武器系统进行编程,使其遵循战争法则,并且比人类更好地遵循战争法则。 。他说,机器人永远不会射击以捍卫自己的生命或出于恐惧。他将获得信息和数据,这是人类士兵无法如此迅速地处理的,从而减少了在激烈的战斗中犯错误的可能性。他绝不会故意为杀死同志而报复杀死平民。他确实可以监视士兵,以免他们犯下暴行。

Arkin教授还声称,自主技术已经在战场上。据他介绍,美国爱国者导弹电池会自动选择目标,并给予一个人最多9秒钟的时间来取消目标并停止火箭。美国海军的方阵系统通过自动击落导弹来保护船舶。

但是,即使可以证明他们可以减少平民伤亡,甚至他们也必须暂停发展更多的自主武器。 “没有人想要终结者的出现。谁愿意拥有可以在执行任务时发送的系统,并且该系统可以独立决定需要杀死谁? -阿金教授说。 “必须非常仔细地仔细开发这些系统,我认为有很多方法可以做到这一点。”

最近,大型技术公司越来越关注人工智能。物理学家斯蒂芬·霍金(Stephen Hawking)警告说,人工智能的出现“可能意味着人类的终结”。特斯拉汽车公司的创始人埃隆·马斯克(Elon Musk)称AI为“生存威胁”,其危险性不亚于核武器。微软的创始人比尔·盖茨也对此感到担忧。

真正从事人工智能工作的人说,有些事情要担心。蒙特利尔大学的领先AI研究员Yoshua Bengio指出,《星球大战》和《星际迷航》的小说大大高估了机器人和人工智能的功能。他说,有一天,我们可以制造出可以与人脑竞争的机器。但是现在,人工智能还没有那么发达。

Bengio教授说,要使机器人成为电影中所看到的东西,还需要做更多的工作。-我们距离五岁的孩子甚至成人对世界的了解水平还差得很远。要实现此目标,可能需要数十年甚至更长的时间。我们甚至无法重复鼠标级别的智能。


毫无疑问,机器人硬件和软件的开发都在不断向前发展。

谷歌最近购买的由波士顿动力公司开发的机器人,可以像狗一样在崎rough的地形上穿着,并且可以像老鼠一样在灾区爬行。 



一只名叫Spot的机器狗被殴打后可以站起来,其金属腿看起来异常逼真。  



但是,如果您担心杀手级机器人的革命是不可避免的,那么330磅重的六英尺人形机器人Atlas可以帮助您冷静下来。它也是由Boston Dynamics创建的,可以走楼梯和石头。看起来像是Apple所开发系列影片Doctor Who中的Cyber​​man。但是,他的电池只能使用1个小时。



渥太华大学道德,法律和技术系主任扬·克尔(Jan Kerr)表示,人们似乎将逐步接管具有人工智能的机器的控制,而计算机最终将在某些方面做得比我们更好。尽管需要一些时间才能出现不需要驾驶员的汽车,但即使现在已经有可以自行停放的汽车。来自国际商业机器公司的IBM Watson机器人赢得了Jeopardy测验!在2011年,它目前用于分析数百万页的医学研究,以推荐针对癌症患者的程序。

— ...  - , , , , , - . — , , , … , , .

Source: https://habr.com/ru/post/zh-CN381437/


All Articles