Les drones militaires sont très "intelligents", certains n'opèrent l'opérateur que de temps en temps, et le reste du temps, ils effectuent la tâche par eux-mêmesLes technologies d'intelligence artificielle se développent rapidement. Les spécialistes ont beaucoup enseigné l'IA, maintenant sa forme faible (forte, heureusement ou malheureusement n'a pas encore été créée) fonctionne dans l'industrie, la navigation, le divertissement et de nombreuses autres industries. Mais qu'en est-il des affaires militaires? Oui, l'IA est également utilisée ici, car une analyse prédictive de la trajectoire d'une fusée ou d'un véhicule, les actions ennemies, le développement de sa propre stratégie - l'intelligence artificielle peut faire face à tout cela.
Mais que se passe-t-il si vous intégrez une IA de n'importe quel niveau dans une arme, ne deviendra-t-elle pas plus efficace? Très probablement, il deviendra et sera très "productif". Mais ici, des questions d'éthique apparaissent déjà. Une machine peut-elle contrôler le sort des gens? De nombreux experts en technologie pensent que ce n'est pas le cas. Et ces «nombreux» ont récemment signé une déclaration - une sorte de promesse de ne jamais participer au développement d'armes intelligentes.
Parmi les autres spécialistes qui
ont participé à la création et à la signature de la déclaration figuraient Elon Musk, des représentants de DeepMInd et des employés de nombreuses autres sociétés, où les problèmes d'intelligence artificielle sont soulevés d'une manière ou d'une autre. Selon un groupe de scientifiques et d'entrepreneurs qui ont laissé leur signature en vertu du mémorandum, c'est à l'autre personne de décider de tuer ou non la personne et non la machine. Et le fardeau de cette décision incombe à celui qui l'a prise.
Dans le cas de la machine, il n'y a pas d'hésitation morale - le système a été envoyé en service, par exemple, pour peigner les routes de campagne pendant la guerre, et il tire sur les ennemis comme l'unité informatique le dit à la
conscience . Selon les experts, le développement d'armes intelligentes avec des éléments de l'IA peut devenir un facteur déstabilisant pour n'importe quel pays et ses citoyens.
Le texte de la déclaration concernant l'utilisation de l'IA dans la création d'armes a été publié après la conférence IJCAI (International Joint Conference on Artificial Intelligence) qui s'est tenue à Stockholm. Il était organisé par le Future of Life Institute. Il étudie les risques de l'existence humaine. L'Institut avait précédemment appelé à abandonner l'idée de créer une arme mortelle intelligente. Maintenant, cette idée a trouvé de la compréhension et commence à se répandre plus largement.
Parmi les signataires figurent le chef de SpaceX et Tesla, Ilon Musk, les trois co-fondateurs de la filiale de Google DeepMind, le créateur de Skype, Jaan Tallinn, ainsi que les chercheurs technologiques de renommée mondiale en intelligence artificielle Stuart Russell, Joshua Benggio, Jurgen Schmidhuber.

Les signataires ont noté séparément que leur initiative commune devrait aider à passer des paroles aux actes en termes d'abandon des armes létales intelligentes. Non, personne ne va organiser une révolution, la tâche principale est de montrer le danger de l'intellectualisation progressive des armes de tout type. «Une arme qui décide indépendamment de qui tuer est une idée dégoûtante et déstabilisatrice, comme une arme biologique. L'idée d'armes intelligentes devrait être traitée de la même manière que les armes biologiques. »
Ici, cependant, il y a une difficulté. Le fait est qu'il est assez difficile de distinguer une arme vraiment autonome et «intelligente» d'une arme qui n'en est pas une. La ligne fantôme. Lorsque les armes classiques de haute technologie cessent d'être stupides, deviennent plus sages et commencent à décider qui garder en vie et qui tuer? Tourelle automatique qui suit l'apparence des personnes par rayonnement thermique - est-il possible d'utiliser une telle arme? Et y a-t-il une grande différence entre les armes intelligentes et les armes conventionnelles, si la même tourelle est automatiquement visée, et qu'une personne appuie simplement sur la détente?
De plus, la déclaration elle-même était en retard - environ 30 pays différents sont armés de systèmes létaux, qui avec ou sans étirement, mais peuvent être appelés intelligents.
Soit dit en passant, un fait intéressant est que les développeurs de Google se sont littéralement
rebellés lorsqu'ils ont appris que la société allait développer des systèmes autonomes pour le Pentagone. A savoir - drone non létal avec IA.
En parlant d'armes intelligentes et de leur avenir, on ne peut s'empêcher de rappeler une histoire de science-fiction (l'auteur et le nom, malheureusement, je ne me souviens pas), où une ogive raisonnable avec un niveau d'intelligence comme celui d'un enfant de 5 ans a été envoyée pour terminer une mission. Mais en s'approchant d'une base ennemie, elle a constaté que les gens y vivent, de la même manière que sur sa propre base. Consciente de cela, elle a décidé de tout rapporter à son créateur et a pris un vol de retour. L'histoire se termine avec le fait que la fusée vole dans la fenêtre de la maison où vit son créateur, mais pour des raisons évidentes, elle n'a pas le temps de dire quoi que ce soit.