Si un robot tue une personne, qui sera coupable?
Si vous recherchez des signes d'une apocalypse imminente dans laquelle les robots seront coupables , faites attention à la zone démilitarisée entre la Corée du Nord et la Corée du Sud. Ici, le long de la frontière la plus fortifiée du monde, plus que de simples soldats sont de garde.Découvrez le SGR-A1, un robot-montre développé par Samsung en Corée du Sud. L'unité de 1,2 mètre semble un peu plus grande qu'une paire de boîtes à chaussures en métal noir, mais ses yeux sans âme équipés de ports infrarouges peuvent détecter l'ennemi jusqu'à quatre kilomètres de distance. Sa mitrailleuse est prête.
Actuellement, le robot avise ses créateurs d'attaquants présumés assis dans la salle de contrôle. Et pour qu'il ouvre le feu, l'approbation de l'homme est nécessaire. Mais ce robot fonctionne également en mode automatique et peut tirer en premier à sa discrétion. La résistance, mes frères humains, est inutile.Le Pentagone et les militaires du monde entier développent une arme de plus en plus autonome qui va bien au-delà des drones télécommandés utilisés par Washington au Pakistan, en Afghanistan et dans d'autres pays. Les progrès technologiques permettront à ces nouveaux types d'armes de sélectionner une cible et de tirer sur celle de leur choix sans l'approbation humaine. Certains prédisent que ces robots se battront un jour aux côtés de soldats humains.Sans surprise, la nouvelle des robots qui tuent rend certaines personnes nerveuses. En avril de cette année, une coalition internationale de designers, de scientifiques et de défenseurs des droits de l'homme a lancé une campagne contre la création de robots tueurs et lancé un appel aux diplomates des Nations Unies à Genève. Les militants veulent interdire le développement et l'utilisation "d'armes mortelles autonomes", bien qu'ils reconnaissent que ces armes, bien que technologiquement possibles, n'ont jamais été utilisées. "Il est logique de poser une question: la valeur de la vie humaine diminuera-t-elle du fait que les robots sont autorisés à tuer des gens?" Dit Peter Asaro, professeur adjoint à la School of Media Studies de New York et porte-parole de la campagne Killer Robot.Ce n'est qu'une question avec laquelle les philosophes, les juristes et les scientifiques se débattent depuis des temps immémoriaux, tandis que le monde se prépare à l'assaut de nouveaux robots, qui, nous dit-on, tondront les pelouses, soigneront les personnes âgées, enseigneront aux enfants autistes , et même conduire nos voitures. Ces robots ne peuvent pas tuer, mais les responsables de la circulation veulent obliger les gouvernements et les tribunaux à considérer un certain nombre de questions juridiques et éthiques. Qui dois-je poursuivre si je suis heurté par une voiture sans chauffeur? Et si le robot médical donne au patient le mauvais médicament? Que dois-je faire si un robot aspirateur me suce accidentellement les cheveux alors que je somnole sur le sol (comme c'est arrivé à une femme en Corée du Sud il n'y a pas si longtemps)? Un robot peut-il commettre un crime de guerre?C'est cette dernière question qui inquiète le plus le professeur Asaro. Lui et d'autres membres de la coalition Human Rights Watch disent que si un système informatique autonome programmé pour distinguer les soldats ennemis des civils tire la gâchette sans «approbation humaine», il sera très difficile de maintenir la situation sous contrôler en cas de problème.Si un robot s'écrase et tue un village entier, vous ne pouvez pas mettre un objet inanimé devant la Cour pénale internationale ou le donner à un tribunal militaire. Et certains experts disent que vous ne pouvez pas blâmer légalement même les développeurs de robots s'ils ne supposent pas que le robot pourrait devenir fou. En droit pénal, les tribunaux doivent déterminer ce que l'on appelle la mens rea ou le testament coupable (du latin). Mais il est peu probable qu'ils trouvent des informations indiquant que le robot - avec le niveau actuel de développement de l'intelligence artificielle - a une volonté de principe. Les concepteurs de robots peuvent être tenus responsables s'il est découvert que le robot est hors de contrôle en raison d'un dysfonctionnement du programme. Cependant, ils ne peuvent pas être tenus responsables des actions du robot tueur.Ces robots tueurs peuvent ressembler à n'importe quoi, des drones autonomes aux robots robotiques avec des mitrailleuses. Dans une directive de 2012, le département américain de la Défense a décidé que les systèmes autonomes "devraient être conçus de manière à ce que les commandants et les opérateurs puissent exercer des niveaux appropriés de contrôle humain sur le recours à la force". En réponse à un courriel d'une question du Globe and Mail, le ministère canadien de la Défense intérieure a noté qu '"une arme mortelle autonome n'est pas en cours de développement", mais son agence de recherche est activement engagée dans un "programme de recherche sans pilote".Au moins une entreprise de robotique, Clearpath Robotics Inc., de Waterloo, en Ontario, s'est opposée aux robots tueurs, malgré la création de robots pour l'armée canadienne et américaine. Ryan Gariepie, cofondateur de ClearPath et de son directeur de la technologie, a déclaré que le déminage ou la surveillance, mais pas la mise à mort, était une bonne utilisation pour les robots de combat autonomes, surtout si ces machines ne sont que d'un côté de la bataille: «Les robots peuvent-ils décider qui peut supporter "une condamnation à mort? Une personne a-t-elle le droit de prendre la vie de soldats ennemis de cette façon?"Inévitablement, la discussion sur les tueurs de robots tourne autour des «trois lois de la robotique» des histoires de l'écrivain de science-fiction Isaac Asimov. La première loi interdit aux robots de nuire aux humains; le second leur ordonne d'obéir aux gens uniquement si cela ne contredit pas la première loi; le troisième ordonne aux robots de protéger leur propre vie - à condition que cela ne viole pas les deux premières lois. Mais la plupart des experts disent que ces lois seront de peu d'utilité dans le monde réel: même Asimov montre leurs lacunes dans ses histoires. Cependant, le professeur Ronald Arkin du Georgia Institute of Technology, un concepteur de robots américain bien connu qui travaille sur des projets du Pentagone, affirme que des robots tueurs ou d'autres systèmes d'armes automatisés peuvent être programmés pour suivre les lois de la guerre - et mieux les suivre que les humains. . Un robot, dit-il, ne tirera jamais pour défendre sa vie ou par peur. Il aura accès à des informations et à des données qu'aucun soldat humain ne pourrait traiter aussi rapidement, ce qui rendrait moins probable une erreur dans le feu de l'action. Il ne tuera jamais intentionnellement des civils pour se venger de la mort d'un camarade. Et il peut vraiment surveiller les soldats afin qu'ils ne commettent pas d'atrocités.Le professeur Arkin affirme également que la technologie autonome est essentiellement déjà sur le champ de bataille. Selon lui, les batteries de missiles US Patriot sélectionnent automatiquement les cibles et donnent à une personne jusqu'à neuf secondes pour annuler la cible et arrêter la fusée. Et le système Phalanx de la marine américaine protège les navires en abattant automatiquement les missiles.Mais même elles nécessitent un moratoire sur la mise au point d'armes plus autonomes pour autant qu'il puisse être démontré qu'elles peuvent réduire les pertes civiles. «Personne ne veut l'apparence du Terminator. Qui voudrait avoir un système qui peut être envoyé en mission et qui décidera indépendamment qui doit être tué? - dit le professeur Arkin. «Ces systèmes doivent être développés très soigneusement et avec soin, et je pense qu'il existe des moyens de le faire.»Récemment, les grandes entreprises technologiques sont de plus en plus préoccupées par l'intelligence artificielle. Le physicien Stephen Hawking a averti que l'avènement de l'IA "pourrait signifier la fin de la race humaine". Elon Musk, le fondateur de Tesla Motors, a qualifié l'IA de «menace existentielle» - non moins dangereuse que les armes nucléaires. Bill Gates, fondateur de Microsoft, est également inquiet.Les gens qui travaillent vraiment sur l'intelligence artificielle disent qu'il y a de quoi s'inquiéter. Yoshua Bengio, un éminent chercheur en IA à l'Université de Montréal, note que la fiction de Star Wars et Star Trek surestime considérablement les capacités des robots et de l'intelligence artificielle. Un jour, dit-il, nous pourrions construire des machines qui rivaliseraient avec le cerveau humain. Mais maintenant, l'IA n'est pas encore aussi développée.Il reste encore beaucoup à faire avant que les robots ne deviennent ce que vous voyez dans les films », explique le professeur Bengio. - Nous sommes encore très loin d'avoir le niveau de compréhension du monde que nous attendons, disons, d'un enfant de cinq ans ou même d'un adulte. Et pour atteindre cet objectif, cela peut prendre des décennies ou plus. Nous ne pouvons même pas répéter l'intelligence au niveau de la souris.
Sans aucun doute, le développement à la fois de matériel et de logiciels pour robots est en constante évolution.Les robots développés par Boston Dynamics, récemment acquis par Google, peuvent galoper à travers des chiens comme des chiens et ramper comme des rats dans une zone sinistrée. Un chien robot nommé Spot peut se tenir debout après avoir été battu et ses pattes en métal semblent étrangement réalistes. Mais si vous avez peur qu'une révolution de robot tueur soit inévitable, Atlas, un robot humanoïde de 6 mètres, peut vous aider à vous calmer. Également créé par Boston Dynamics, il peut monter des escaliers et des pierres. Il ressemble au Cyberman de Doctor Who, une série développée par Apple. Cependant, sa batterie ne dure qu'une heure.Il semble que, selon Jan Kerr, chef du département d'éthique, de droit et de technologie de l'Université d'Ottawa, les gens vont progressivement transférer le contrôle vers des machines à intelligence artificielle - des ordinateurs qui finiront par faire certaines choses mieux que nous. Bien qu'il faudra un certain temps avant l'apparition des voitures qui n'ont pas besoin de chauffeur, même maintenant, il existe déjà des voitures qui peuvent se garer seules. IBM Watson Robot de International Business Machines Corp., qui a remporté le quiz Jeopardy! en 2011, il est actuellement utilisé pour analyser des millions de pages de recherche médicale afin de recommander des procédures pour les patients cancéreux.— ... - , , , , , - . — , , , … , , .
Source: https://habr.com/ru/post/fr381437/
All Articles