是否有可能将伦理学引入机器人移动设备的算法中?

对于自动驾驶车所犯下的谋杀案,将对程序(和程序员)进行评判


图片2034年。夜间,一名醉汉在人行道上徘徊,跌跌撞撞,跌落在自动扶梯的前方,撞到他并当场将其杀死。如果有人在汽车的方向盘后面,则死亡将被视为事故,因为故障将出在行人身上,而没有一个驾驶员能够躲避他。但是,到2020年代,“普通驾驶员”的标准(在国外立法中出现了“ 合理的人 ”一词)消失了,当时机器人的普及使事故数量减少了90%。现在我们要谈谈“平均机器人”。

受害人的家人正在起诉机器人制造商,称尽管汽车没有时间制动,但她仍可以绕行人,越过双重障碍物并与即将来临的机器人相撞。在机器人车辆传感器的基础上对事件的重建证实了这一点。原告的律师审问了一家领先的汽车软件开发商,他问道:“为什么汽车没有转弯?”

今天,法院没有问司机为什么做某事或没有做某事。这个问题值得商,,因为人错了-驾驶员可能会惊慌,而不是想到,会对本能做出反应。但是,当机器人驾驶汽车时,问题是“为什么?”完全可以接受。人们的道德标准没有在法律中很好地阐明,它们提出了许多不同的假设,而工程师根本没有达到这些假设。其中最重要的是-一个人可以理解您何时需要背离法律条文以维护其精神。现在,工程师需要教机器和其他机器人如何做出明智的决策。

控制过程的计算机化始于1970年代,当时出现了防抱死制动系统。现在每年都有这样的发展,例如自动转向,自动加速和紧急制动。在英国,荷兰,德国和日本的某些地方已经允许对全自动机器进行测试,尽管要有驾驶员的参与。在美国,法律在四个州和哥伦比亚特区允许,至少在其他州也不禁止。谷歌,日产和福特声称,机器人将在5-10年后出现。

自动驾驶汽车从传感器(摄像机,超声波测距仪,雷达,激光雷达)收集环境信息。在加利福尼亚州,机器人必须在任何碰撞已经累积足够的时间(包括由Google机器引起碰撞)之前30秒钟向交通运输部提供所有传感器数据。工程师可以使用机器可以捕获的内容,考虑的替代方案以及行为逻辑的记录,相当准确地恢复碰撞区域中的事件。可以使计算机重复其推理-可以要求计算机使人玩游戏或驾驶模拟器。

监管者和诉讼人将能够维持机器人车辆的超人安全标准,并彻底检查无论如何都会发生的碰撞-尽管很少。制造商和程序员将以当今驾驶员从未想到的方式保护其产品的行为。

驾驶始终是一种风险,有关在驾驶者,行人,骑自行车的人和财产之间分配的决定包含道德成分。对于工程师和所有人来说,机器的决策系统必须权衡其行为的伦理后果,这一点很重要。

图片
图片
碰撞Google Car与公交车

对道德上模棱两可的情况的通常反应是在减少损失的同时遵守法律。该策略具有吸引力-它不仅允许开发人员轻松捍卫汽车的行为(“我们完全遵守法律”),而且将确定道德的责任转移给了立法者。不幸的是,这也给法律带来了太多负担。

例如,在大多数州,法律依赖于驾驶员的常识,而很少谈及碰撞前的行为。在所描述的示例中,严格遵守法律规定的汽车不会越过双重固体,因此有可能与酒鬼相撞-尽管道路另一侧只有空的自动驾驶汽车。法律很少在诸如行人摔倒的特殊紧急情况下例外-并且,如果他这样做,例如在弗吉尼亚州习惯,则法律文本暗示,越过双重固体是合法的,直到汽车撞车(“如果可以安全地进行这样的移动”)。在这种情况下,开发人员将不得不做出决定-在这种情况下,越过双重实体是安全的。

Robomobile很少会百分百确定道路是空的,您可以毫无顾忌地越过双重障碍物。他将置信水平定为98%或99.99%。工程师将需要事先确定什么水平的置信度足以越过双重固体,以及可接受的值如何变化取决于机器人在路上要避免的是塑料袋还是倒下的行人。

机动机器人已经在做出关于触犯法律的可能性的决定。谷歌承认允许他的汽车超速才能停留在车流中-减速很危险。在各种情况下,例如尝试赶往医院时,大多数人都希望超过速度。斯坦福大学的Chris Gerdes [Chris Gerdes]和Sarah Thornton 反对将法律严格包含在决策算法中,因为驾驶员似乎认为法律足够灵活,可以与将其潜在收益相比来评估破坏法律的成本。速度。没有人愿意在骑自行车的人之后爬几公里,因为您的车拒绝为双排双发至少打个电话。

甚至在遵守法律的情况下,移动机器人还可以做出许多从安全角度来看敏感的小决定。通常,高速公路上的车道几乎是普通汽车的两倍,驾驶员可以使用该宽度来避免垃圾或远离行驶不平稳的汽车。

Google在2014年的专利中提出了这一构想,并描述了如何将机器人移动装置放置在带子上以降低风险。该公司举了一个例子,在三车道的道路上有一辆机器人,右边有一辆卡车,左边有一辆小型车。为了优化安全性,移动机器人应该向左移动一点,在小型机器中靠得更近。

它看起来很健康,通常每个人都有意识地或不自觉地做到这一点。但是出现了道德问题。机器人移动到小型机器上,虽然降低了风险,但分布不均。小型机器是否应该仅仅因为小型而承担更大的风险?如果这是特定驾驶员的偏好问题,那么他将毫无意义。但是,如果将这种重新分配形式化并扩展到所有机器人上,后果将更加严重。

在每个示例中,移动机器人都考虑了多个值-它可以击中的对象的值以及其乘客的值。人们本能地做出决策,而机器人将在经过深思熟虑的风险管理策略的基础上做出决定,该策略将风险定义为不良事件造成的损害程度乘以其可能性。

2014年,Google还为风险管理应用程序申请了专利。该专利描述了一种机器,为了更好地观察交通信号灯,可以决定对其进行改造。或者汽车可能决定留在车道上,以避免发生碰撞的危险(例如,由于传感器故障指示而导致的危险),但这样做的代价是交通信号灯的可见性不佳。任何决策的结果都分配有概率,以及正值或负值(优势或损失)。将每个值乘以概率,然后可以将获得的值相加。如果收益远远超过损失,则机器将进行机动。

问题在于,发生碰撞的风险非常小-美国平均每257,000公里或每12年发生一次事故(在俄罗斯,每1.6年发生一次事故)。也许是由于美国的事实,人们在高速公路上的出行频率更高-大约是90英里。因此,即使机器人在上街时开始接收大量数据,我们也将很快获得各种事件的概率估计。

估算损失成本更加困难。财产损失很容易评估-保险公司在这方面有丰富的经验-但是伤亡是另一回事。挪用任何价值生命的历史已有很多年,通常以可用于预防普通受害者的金钱数量来表示。安全改进是一个普通的受害者,有100%的生命可以挽救100人的生命。运输部建议花费910万美元以防止人员伤亡。该数字来自市场数据,包括人们从事危险工作所需的津贴以及人们愿意花在安全设备上的费用,例如烟雾报警器。您不仅需要权衡安全性,而且还要权衡丧失移动性或时间的麻烦,该部门在道路上的花费为每小时26.44美元。

换句话说,一切看起来都很美。但是,在丧生和途中花费的时间进行的风险评估并未包括对我们如何使人们处于危险之中的不同道德评估。例如,同等水平评估所有人生命的自动驾驶汽车将不得不给没有头盔的摩托车提供更多空间,而不是全副武装的摩托车,因为前者生存的可能性较小。但这是不公平的-照顾您的安全是否有可能受到惩罚?

机器人与人的伦理学之间的另一个区别是,即使出于充分的理由,程序员的伦理学也可能被程序员歪曲。想象一下,该算法基于对事故中行人提出的索赔赔偿额的分析,调整了不同区域行人的缓冲区的大小。一方面,这是合理,有效和善意的。另一方面,较小的罚款可能取决于特定地区人的平均收入。然后,该算法将通过给穷人一个较小的缓冲区来惩罚他们,从而稍微增加他们被击落的风险。

倾向于忽略诸如纯学术性的问题,但您却无法绕开它们,因为程序实际上可以处理所有问题。您必须在执行操作之前评估操作的后果-在开发阶段,而不是在创建软件补丁的阶段。

部分由于这个原因,研究人员使用了一种假设情况,即机器必须在两种邪恶之间做出选择。这种类型最著名的任务之一是手推车问题。

重型的不受控制的手推车被放在轨道上。在路上,有五个人被一个疯狂的哲学家绑在了铁轨上。幸运的是,您可以切换箭头-然后,手推车将沿着不同的替代路线行驶。不幸的是,壁板上有一个人,也被绑在铁轨上。你的行动是什么?

您会牺牲一生吗?如果不是这样,由于您的无所作为,人们仍然会死亡,那么您如何处理这一矛盾呢?

已经针对此类实验的主题编写了书籍,它们使您能够测试处理伦理问题的简单直接的系统,并找到可以细化某些细微差别的领域。假设我们对机器人进行了编程,以不惜一切代价避开行人。如果行人突然出现在两条车道的隧道中,而汽车无法及时制动,则即使行进载客的公共汽车,她也必须关闭车道。发生这种事件的可能性并不像它在机器人汽车的逻辑中暴露出的问题那样重要-步行者的价值绝对绝对优于使用道路的所有其他人,这是非常危险的。

机器人伦理是一项可解决的任务。我们之所以知道这一点,是因为在其他领域,我们已经找到了安全合理地处理大约相同风险和收益的机会。根据根据潜在寿命和生活质量计算出的指标,将供体器官分配给患者。从事诸如农民和教师之类必要职业的人免于兵役。

机器人的任务更加复杂。他们可能需要基于不完整的信息快速做出决定,在这种情况下,程序员可能没有预料到必须从字面上构建道德的道德观念。幸运的是,人们不会期望他们拥有超人类的智慧,而只是对评估道德问题的机器行为的理性辩解。解决方案不应是完美的-应当考虑周全,并且可以加以保护。

Source: https://habr.com/ru/post/zh-CN395143/


All Articles