
L'entrepreneur Ilon Musk, qui dirige de nombreuses sociétés technologiques bien connues, est connu pour son point de vue sur les dangers de l'intelligence artificielle. Bien sûr, il est célèbre non seulement à cause de cette opinion. Cependant, il s'oppose à la création d'une forme forte d'IA depuis 2014. Il a ensuite déclaré publiquement pour la première fois que l'intelligence artificielle pouvait être dangereuse. Stephen Hawking et de nombreux autres scientifiques, futurologues et informaticiens sont d'accord avec lui. On pense que toute l'humanité peut être victime de la singularité technologique.
Le plus dangereux, selon Mask, est la tendance à créer une arme autonome "intelligente". Selon l'entrepreneur, le risque d'apparition de «robots tueurs» est très élevé, il est donc nécessaire de traiter ce problème avec le plus grand soin. "La troisième révolution des armements" est déjà proche, les experts en sont convaincus et les "robots tueurs" autonomes sont une sorte de boîte de Pandore. Il reste très peu de temps pour résoudre le problème.
Il y a environ une semaine, Musk, avec 115 éminents experts de divers domaines de la science et de la technologie, a signé
une lettre ouverte , dont les auteurs demandent à l'ONU de s'attaquer à ce problème le plus rapidement possible.
La lettre a été signée lors de la
Conférence conjointe internationale sur l'intelligence artificielle (IJCAI 2017) , qui s'est tenue à Melbourne. Soit dit en passant, parmi les signataires - et le fondateur de DeepMind Mustafa Suleiman, ainsi que Jerome Monce, le chef d'Aldebaran Robotics, qui a développé le robot Pepper. Si les chefs d'entreprises à la tête du progrès technologique signent cette lettre, le problème mérite probablement d'être examiné.
La lettre, en particulier, déclare que l'IA et la robotique se développent à un rythme si rapide que la possibilité de faire la guerre avec des armes autonomes, y compris des robots, devient plus probable. De plus, c'est une question des années à venir, et non des décennies du tout, comme on le pensait auparavant. Alors maintenant, il est nécessaire de réfléchir à la façon dont la technologie peut affecter le sort de l'humanité. Et, tout d'abord, les dirigeants des États où la technologie se développe le plus activement possible devraient y penser.
On peut ajouter à cela la menace que de telles technologies tombent entre les mains de terroristes et d'autocrates qui, sans aucun remords, enverront des outils mortels contre les gens ordinaires. Même si cela peut être évité, il reste la menace des systèmes de piratage, et il est complètement non nul. Les pirates ont prouvé à plusieurs reprises que presque tout peut être piraté, peu importe la façon dont ce «tout» est protégé.
Déjà, il y a des développements d'armes mortelles fonctionnant en mode autonome ou semi-autonome. C'est entre autres un tel appareil.

La photo est juste pour montrer comment les armes peuvent être équipées de robots dans les guerres futures. Mais déjà des drones volent dans le ciel, capables de fonctionner en mode automatique. Et les navires sont équipés de canons automatiques qui traquent indépendamment une menace possible.
Les gouvernements de divers pays ne sont pas d'accord avec le point de vue des scientifiques et des technologues pour diverses raisons. Le principal - pour les États, les armes autonomes - est bénéfique. Elle peut accroître l'efficacité de la protection des frontières ou réduire le nombre de morts de soldats en cas de conflits locaux ou régionaux. Ainsi, en 2015, le gouvernement britannique s'est opposé à l'interdiction des armes létales autonomes. De plus, le développement d'armes de ce type est très actif ici.
Eh bien, le point de vue des scientifiques opposés aux «robots tueurs» autonomes est bien illustré par la déclaration du fondateur d'Element AI, Joshua Benggio: «J'ai signé une lettre ouverte, car l'utilisation de l'IA dans les systèmes d'armes autonomes contredit ma compréhension de l'éthique, qui peut toutes conduire à une escalade très dangereuse, affecter toute la portée du développement de l'IA. La situation doit être placée sous le contrôle de la communauté internationale, tout comme elle l'a été avec d'autres types d'armes (biologiques, chimiques, nucléaires). »

"La création d'armes autonomes mortelles nous permet d'étendre les guerres à des proportions sans précédent, même difficiles à imaginer", indique la lettre. Et, probablement, les auteurs de la lettre ont vraiment raison.

