
Depuis que les entreprises ont commencé à développer des véhicules robotiques, les gens ont commencé à se poser des questions sur la façon dont les concepteurs vont résoudre
les problèmes moraux , tels que qui un robot devrait tuer dans le cas où un accident est inévitable. Une
étude récente suggère qu'il pourrait être encore plus difficile de répondre à cette question qu'on ne le pensait auparavant, car les préférences morales des personnes varient selon les pays.
Des chercheurs de l'Université Harvard et du MIT ont développé un jeu en ligne qui simule des situations dans lesquelles un accident avec les victimes était inévitable. Ils ont interrogé 40 millions de personnes de 200 pays, leur proposant de choisir différentes options pour mettre fin à de tels incidents, par exemple, si les passagers des voitures ou les piétons devaient mourir.
En conséquence, trois clusters culturels avec des préférences éthiques significativement différentes ont été découverts. Par exemple, dans le cluster sud (qui comprend la majeure partie de l'Amérique latine et des anciennes colonies françaises), la
plupart ont préféré épargner les femmes au détriment des hommes. Dans le groupe oriental (qui comprenait de nombreux pays islamiques, la Chine, le Japon et la Corée), les gens étaient moins susceptibles de voter pour sauver les jeunes au détriment des personnes âgées.
Les chercheurs ont conclu que ces informations devraient influencer les décisions des développeurs de robots. Mais faut-il? Ce travail, mettant en évidence la découverte intéressante de différences mondiales dans les préférences morales, démontre également un malentendu persistant concernant l'IA et ses capacités. Compte tenu du niveau actuel de la technologie de l'IA utilisée dans les véhicules robotiques, il est clair que la machine n'est pas en mesure de prendre des décisions morales.
Fantaisie de "machines morales"
Les robots sont entraînés à prendre des décisions quant au moment de diriger et de ralentir, en utilisant un type spécial d'IA, également connu sous le nom d '«
IA faible (étroite) », qui se concentre sur une tâche hautement spécialisée. Ils sont développés à l'aide de divers capteurs, caméras et lasers télémètres (lidars) qui fournissent des informations à un ordinateur central. L'ordinateur utilise l'IA pour analyser les données d'entrée et prendre des décisions.
Et bien qu'aujourd'hui cette technologie soit relativement simple, en conséquence, les voitures peuvent dépasser une personne dans les tâches les plus simples associées à la conduite d'une voiture. Mais il serait irréaliste de croire que la robotique devrait pouvoir prendre des décisions éthiques, pour lesquelles même les personnes les plus morales n'auraient pas le temps en cas d'accident. Si nous voulons cela d'une voiture, il faudra programmer
l' intelligence artificielle à
usage général (IION).
IION équivaut à nous rendre humains. C'est l'occasion de parler, de profiter de la musique, de rire de quelque chose ou de juger la moralité. Maintenant, il est
impossible de faire IION en raison de la complexité de la pensée et des émotions humaines. Si nous exigeons la création de voitures autonomes avec la morale, nous devrons attendre plusieurs décennies, même si cela est possible.
Un autre problème avec la nouvelle étude est le caractère irréaliste de nombreuses situations évaluées par les participants. Dans un scénario, le «
problème du chariot » bien connu a été joué, et les participants ont été invités à savoir quelle voiture devait se déplacer en cas de défaillance des freins: trois passagers (un homme, une femme et un enfant) ou trois piétons âgés (deux vieillards et une vieille).
Les gens peuvent réfléchir soigneusement à ces questions en remplissant un questionnaire. Mais dans la plupart des incidents réels, le conducteur n'aura pas le temps de prendre une telle décision dans les fractions de seconde pour lesquelles cela se produira. Donc, la comparaison est incorrecte. Compte tenu du niveau actuel de la technologie de l'IA utilisée dans les véhicules robotiques, ces véhicules ne seront pas non plus en mesure de prendre de telles décisions.
L'intelligence artificielle étroite permet aux robots de porter des jugements simples sur les objets environnantsLes robots motorisés modernes ont des capacités de perception du monde complexes et ils peuvent distinguer les piétons des autres objets, tels que les lampadaires ou les panneaux de signalisation. Cependant, les auteurs de l'étude croient que les robots motorisés peuvent et peuvent même avoir besoin de faire des différences plus profondes. Par exemple, ils pourraient apprécier le degré d'utilité de certaines personnes pour la société, par exemple des médecins ou des athlètes, et décider de les sauver en cas d'accident.
La réalité est que pour effectuer un raisonnement aussi complexe, vous devrez créer un IION, ce qui est
impossible aujourd'hui. De plus, il n'est pas clair si cela devrait être fait du tout. Même s'il était possible de faire du programme de la machine l'occasion de décider de la vie à sauver, je pense que nous ne devrions pas être autorisés à le faire. Nous ne devons pas permettre aux préférences déterminées par l'étude, quelle que soit sa taille, de déterminer la valeur de la vie humaine.
Fondamentalement, les robomobiles sont conçues pour éviter autant que possible les accidents ou pour minimiser la vitesse d'impact. Bien que, comme les gens, ils ne seront pas en mesure de prendre des décisions fondées sur la moralité en cas de collision imminente. Cependant, les robomobiles seront plus
sûres que les voitures de tourisme, plus attentives, leur vitesse de réaction sera plus élevée et elles pourront utiliser tout le potentiel du système de freinage.
Jusqu'à présent, le plus grand problème éthique dans le domaine des robots est de savoir si suffisamment de preuves ont été recueillies dans les simulations de leur comportement en toute sécurité afin de pouvoir libérer des robots dans les rues. Mais cela ne signifie pas qu'ils seront "moraux", ou qu'ils pourront le devenir dans un proche avenir. Dire le contraire, c'est confondre une conduite IA étroite, avec un IION, qui n'apparaîtra probablement pas au cours de nos vies.
En fin de compte, les robomobiles seront plus sûres que les humains. Cet objectif sera atteint grâce à leur conception et à la capacité d'éviter les incidents de toutes leurs forces ou de réduire les dommages en cas d'inévitabilité. Cependant, les machines ne peuvent pas prendre de décisions morales là où nous ne le pouvons pas. Cette idée reste une fiction et il ne faut pas l'espérer. Au lieu de cela, nous nous concentrons sur la sécurité: la foi en elle sera justifiée.