这个微型的类人机器人称为Meccanoid,他只是个流氓。 测试人员不假思索地问机器人:如果您想与某人交朋友,您想让他们了解您什么? “我很无聊,” Mekanoid说。
好吧,让我们重新开始。 实验中的一位新参与者也向Mekanoid询问了同样的问题,只是现在已经对机器人进行了礼貌编程。 这个机器人想让他的朋友知道什么? “我已经很喜欢他了,” Mekanoid说。 好多了。
来自法国的研究人员有充分的理由将测试对象暴露于粗鲁和礼貌的类人动物的影响:他们正在研究机器人对人的态度如何影响人们执行某些任务的能力。 他们于2018年8月在《科学机器人》杂志上发表了他们的
研究 ,其中还包括
一项关于机器人是否可以说服儿童做出某些决定的研究。 这对研究表明,先进的社交机器人的发展远远超出了我们对我们如何看待它们的理解。
回到Mekanoid。 参与者从一项任务开始,他们需要确定单词的书写颜色,而不是单词本身。 例如,“蓝色”一词可能用绿色墨水书写。 有必要在说“绿色”时使“蓝色”模糊。 此练习称为
Stroop任务 。
参与者首先自己通过了测试,然后与Mekanoid交流了一些线索。 但是,每个受试者都只遇到了Mekanoid情绪变化的一种变体。
然后他们回到了Stroop的任务,机器人看着他们。 该研究的主要作者,法国克莱蒙·奥弗涅大学的心理学家尼古拉斯·斯帕托拉说:“我们发现,在没有礼貌的机器人的情况下,与在礼貌的监督下进行训练的参与者相比,参与者的表现大大提高了。”
实验中会发生什么? Spatola说:“在实验过程中,我们观察到机器人如何在情感上影响人。” “粗鲁的机器人似乎更具威胁性。” 事实证明,尽管机器人不是很聪明,但观察者并不在乎机器人如何看待它以及如何看待它。 “由于机器人很粗鲁,您会主动监视它的行为和运动,因为您认为它是不可预测的,” Spatola说。 也就是说,遇到粗鲁的机器人的参与者会更加专注,这就是为什么他们可能在测试中显示出最佳结果的原因。
在稍后发表的第二项研究中,机器人并没有那么邪恶。 桌子周围围坐着三只由SoftBank Robotics制造的Nao模型的小类人动物(很高兴他们坐在高脚椅上,可以和大孩子一样)。 他们看着屏幕,左边有一条垂直线,右边有三条不同长度的线。 受试者必须选择三行中的哪一行与左侧的行相对应。
但是首先是机器人选择了。 在三分之二的案例中,按照特别编写的程序操作的自动驾驶汽车给出了错误的答案,但是,这并没有打扰成年参与者。 如果我们将其与在错误答案的成年人而非机器人的参与下进行相同实验的小组进行比较,则参与者倾向于相信人而不是汽车。
另一方面,孩子们正在跟随机器人。 他们回答的四分之三与机器人给出的错误回答相吻合。 换句话说,研究人员声称孩子们屈服于他们身边的压力。 比勒费尔德大学研究的主要作者安娜-丽莎·沃尔默说,孩子们倾向于压抑不信任感。 她说:“与机器人互动时,也会发生类似的事情:孩子们看到的不是由塑料和电子产品制成的汽车,而是社会性的。” “这可以解释为什么它们会受到机器人的影响。”
但是,如果这些成员实际上是机器人,可以将其称为来自
圈子成员的压力吗? 这里的情况很混乱。 “我认为对儿童的反应有一个很大的假设,因为这里不必涉及来自社交圈成员的压力所带来的社会影响,”研究人与机器人互动的朱莉亚·卡彭特说。他没有参加这项研究。 “儿童和成人都可能过于依赖技术。” 也许孩子们并不认为类人动物等同于自己,而只是将它们视为有用的技术工具。
但是,这些机器人像机器人一样,粗鲁而礼貌,在实验人员中引起一定的反应。 因此,在不久的将来,我们将越来越多地与机器(尤其是类人机器人)进行交互,对我们来说似乎很有趣。 这些研究声称,类人机器人能够以各种令人困惑的方式操纵我们。 科学家才刚刚开始了解这一过程的动态。
想象一下一个非常聪明的机器人娃娃,它与孩子有密切的关系。 好吧,比方说,孩子们爱他们的洋娃娃已有数千年的历史了。 但是,如果该机器人开始使用此连接谋取个人利益,例如,试图说服孩子花20美元进行软件升级,从而使该机器人变得更加智能和有趣,该怎么办?
汽车一下子什么也不做。 曾经有人对它们进行编程,使其表现出一定的行为,无论是在屏幕上错误选择一条线,粗暴对待还是欺骗毫无戒心的孩子。 “我们需要问自己,机器人的目标是什么? -卡彭特说。 “他们和我的吻合吗?”
下次您认为机器人对您太粗鲁时,您需要记住这一点。