Ce petit robot humanoïde s'appelle Meccanoid, et ce n'est qu'un scélérat. La personne testée demande au robot sans réfléchir: si vous vouliez vous lier d'amitié avec quelqu'un, que voudriez-vous qu'il sache à votre sujet? «Ce qui m'ennuie», explique Mekanoid.
Bon, recommençons. Un nouveau participant à l'expérience pose la même question à Mekanoid, seulement maintenant le robot a été programmé pour la politesse. Qu'est-ce que ce robot voudrait que son ami sache? «Je l'aime vraiment déjà», déclare Mekanoid. Tellement mieux.
Des chercheurs français exposent les sujets testés aux effets d'humanoïdes grossiers et polis pour une bonne raison: ils mènent une étude sur la façon dont l'attitude d'un robot envers les gens affecte la capacité des gens à effectuer certaines tâches. En août 2018, ils ont publié leur
étude dans la revue Science Robotics, dans le numéro, qui comprenait également une
étude sur la capacité des robots à persuader les enfants de prendre certaines décisions. Cette paire d'études montre à quel point le développement de robots sociaux avancés dépasse notre compréhension de la façon dont nous les percevrons.
Revenons à Mekanoid. Les participants ont commencé par une tâche dans laquelle ils devaient déterminer la couleur par laquelle le mot était écrit, et non le mot lui-même. Par exemple, le mot «bleu» aurait pu être écrit à l'encre verte. Il y a une tentation de brouiller «bleu» quand il faut dire «vert». Cet exercice est appelé la
tâche Stroop .
Les participants ont d'abord réussi le test par eux-mêmes, puis ont parlé un peu avec les signaux échangés par Mekanoid. Mais chacun des sujets n'a rencontré qu'une des variantes de l'humeur changeante de Mekanoid.
Puis ils sont retournés à la tâche de Stroop, et le robot les a regardés. "Nous avons vu qu'en présence d'un robot impoli, les participants ont considérablement amélioré leurs performances par rapport à ceux qui l'ont fait sous la supervision d'un poli", a déclaré Nicholas Spatola, auteur principal de l'étude, psychologue à l'Université de Clermont-Auvergne, en France.
Que se passe-t-il dans une expérience? «Au cours de l'expérience, nous avons observé comment un robot peut influencer émotionnellement une personne», explique Spatola. "Le robot grossier semblait plus menaçant." Malgré le fait que le robot n'était pas intelligent, l'observateur, il se trouve, ne se soucie pas de ce que le robot en pense et comment. «Comme le robot est impoli, vous surveillez activement son comportement et ses mouvements, car vous le considérez comme imprévisible», explique Spatola. Autrement dit, les participants qui ont rencontré un robot grossier étaient plus concentrés, c'est pourquoi ils ont probablement montré les meilleurs résultats dans les tests.
Dans une deuxième étude, publiée un peu plus tard, les robots n'étaient pas si vicieux. Trois petits humanoïdes du modèle Nao fabriqués par SoftBank Robotics étaient assis autour de la table (c'était très agréable qu'ils soient assis sur des chaises hautes pour être à égalité avec les grands enfants). Ils ont regardé l'écran, sur lequel il y avait une ligne verticale à gauche et trois lignes de longueurs différentes à droite. Les sujets devaient choisir laquelle des trois lignes correspond en longueur à celle qui était à gauche.
Mais les premiers robots ont choisi. Les voitures autonomes fonctionnant selon un programme spécialement écrit dans les deux tiers des cas ont donné des réponses incorrectes, ce qui n'a toutefois pas dérangé les participants adultes. Si nous comparons cela avec un groupe où la même expérience a été menée avec la participation d'adultes qui ont donné les mauvaises réponses au lieu de robots, alors les participants étaient enclins à croire aux gens, pas aux voitures.
Les enfants, en revanche, suivaient à la suite des robots. Les trois quarts de leurs réponses coïncidaient avec les réponses incorrectes données par les robots. En d'autres termes, les chercheurs affirment que les enfants ont succombé à la pression de leur côté. Les enfants ont tendance à supprimer la méfiance, explique Anna-Lisa Volmer, auteur principal de l'étude à l'Université de Bielefeld. «Quelque chose de similaire se produit lors de l'interaction avec des robots: les enfants y voient non pas une voiture en plastique et électronique, mais un personnage social», dit-elle. "Cela pourrait expliquer pourquoi ils sont influencés par les robots."
Mais cela peut-il être appelé pression des
membres de son cercle , si ces membres sont en fait des robots? Ici, la situation est confuse. «Je pense qu'il y a une grande hypothèse sur la réaction des enfants, car l'aspect social de la pression des membres de leur cercle n'a pas à être impliqué ici», explique Julia Carpenter, qui a étudié l'interaction des personnes et des robots, qui n'ont pas participé à cette étude. «Les enfants et les adultes peuvent trop compter sur la technologie.» Peut-être que les enfants ne considéraient pas les humanoïdes comme égaux, mais les considéraient simplement comme des outils technologiques utiles.
Et pourtant, ces robots, comme le robot, alternativement grossiers et polis, provoquent une certaine réaction chez les expérimentés. Par conséquent, l'avenir proche, dans lequel nous interagirons de plus en plus avec des machines, en particulier des machines humanoïdes, nous semble si intéressant. Ces études affirment que les robots humanoïdes sont capables de nous manipuler de diverses manières confuses. Et les scientifiques commencent tout juste à comprendre la dynamique de ce processus.
Imaginez une poupée robot très intelligente avec laquelle un enfant a une relation étroite. Eh bien, disons que les enfants adorent leurs poupées depuis des milliers d'années. Mais que se passe-t-il si ce robot commence à utiliser cette connexion à des fins personnelles, en essayant, par exemple, de convaincre un enfant de dépenser 20 $ pour une mise à niveau logicielle, afin que le robot devienne encore plus intelligent et amusant?
Les voitures ne font rien d'un coup. Quelqu'un les a une fois programmés pour se comporter d'une certaine manière, que ce soit le mauvais choix d'une ligne à l'écran, un traitement grossier ou la tromperie d'enfants sans méfiance. «Nous devons nous demander quels sont les objectifs du robot? - dit Carpenter. "Coïncident-ils avec le mien?"
Vous devez vous en souvenir la prochaine fois que vous penserez que le robot est trop impoli avec vous.