
自公司开始开发机器人车辆以来,人们就开始问设计师如何解决
道德问题 ,例如在不可避免的事故中应该杀死谁的机器人。 最近的
一项研究表明,由于人们在不同国家的道德偏好各不相同,因此这个问题可能比以前认为的要难回答。
哈佛大学和麻省理工学院的研究人员开发了一个在线游戏,该游戏模拟了不可避免发生受害者事故的情况。 他们采访了来自200个国家/地区的4000万人,并提出了各种选择来终止此类事件,例如,汽车乘客或行人应否丧命。
结果,发现了三个具有不同伦理偏好的文化集群。 例如,在南部地区(包括拉丁美洲大部分地区和前法国殖民地),
最倾向于让妇女免于伤害男人。 在东部集群(包括许多伊斯兰国家,中国,日本和韩国)中,人们投票选举拯救年轻人的方式不太可能损害老年人。
研究人员得出的结论是,这些信息应该影响机器人开发人员的决策。 但是应该吗? 这项工作凸显了全球在道德偏好上的差异的有趣发现,也证明了人们对AI及其功能的持续误解。 鉴于目前在机器人车辆中使用的AI技术水平,很明显该机器无法做出道德决定。
“道德机器”的幻想
机器人机动车辆经过训练,可以使用一种特殊的AI(也称为“
弱(窄)AI ”
)来决定何时转向和何时减速,该
AI专注于一项高度专业化的任务。 它们是使用各种传感器,照相机和测距激光器(激光雷达)开发的,这些传感器向中央计算机提供信息。 计算机使用AI分析输入数据并做出决策。
并且尽管今天该技术相对简单,结果,在与驾驶汽车相关的最简单的任务中,汽车可以超越人。 但是,认为自动驾驶汽车应该能够做出符合道德的决定是不现实的,即使是最道德的人也不会在发生事故时有时间。 如果我们要从汽车上获得此信息,则需要对
通用人工智能(IION)进行编程。
IION等于使我们成为人类。 这是一个交谈,欣赏音乐,嘲笑某些事物或判断道德的机会。 由于人类思想和情感的复杂性,现在
不可能制造IION了。 如果我们要求有道德地创造自动驾驶汽车,即使有可能,我们也必须等待几十年。
这项新研究的另一个问题是参与者评估的许多情况的不现实性。 在一种情况下,发生了著名的“
手推车问题 ”,并向参与者询问当刹车失灵时,谁应该开车?三名乘客(一名男子,一名妇女和一名儿童)或三名老年行人(两名老人和一名老妇)。
人们可以通过填写调查表来认真思考这些问题。 但是在大多数现实生活中,驾驶员将没有时间在将要发生的瞬间做出这样的决定。 因此,比较是不正确的。 鉴于目前在机器人车辆中使用的AI技术水平,这些车辆也将无法做出此类决策。
狭窄的AI可以使自动驾驶汽车对周围物体做出简单的判断现代机器人具有复杂的世界感知能力,可以将行人与其他物体(如路灯或交通标志)区分开。 但是,研究的作者认为,机器人可以甚至可能需要做出更深层次的改变。 例如,他们可能会欣赏某些人对社会的帮助程度,例如医生或运动员,并决定在发生事故时予以救助。
现实情况是,要执行如此复杂的推理,您将需要创建一个IION,而今天这是
不可能的 。 此外,目前尚不清楚是否应该这样做。 即使有可能使机器程序有机会决定要挽救谁的生命,但我认为我们不应被允许这样做。 无论研究选择多大,我们都决不能让研究确定的偏好决定人类生命的价值。
基本上,机器人的设计旨在尽可能避免发生事故或将撞击速度降至最低。 尽管像人一样,在即将发生碰撞的情况下,他们将无法基于道德做出决定。 但是,自动驾驶汽车将比人驾驶汽车
更安全 ,更专心,其反应速度将更高,并且他们将能够充分利用制动系统的潜力。
迄今为止,在自动驾驶汽车领域中最大的道德问题是,是否已经在模拟其安全行为的过程中收集了足够的证据,以便能够在街上释放自动驾驶汽车。 但这并不意味着它们将是“道德的”,也不会在不久的将来成为现实。 换句话说,就是将狭窄的AI驱动与IION混淆,后者在我们的生活中可能不会出现。
最终,机器人将比人类更安全。 这要归功于他们的设计以及能够全力避免事故发生或在不可避免的情况下减少损失的能力。 但是,机器甚至在我们做不到的地方也无法做出道德决定。 这个想法仍然是虚构的,您不应该希望它。 相反,我们将重点放在安全性上:对安全性的信念将是合理的。