Elon Musk se opone a las armas letales autónomas.

imagen

El empresario Ilon Musk, que dirige muchas compañías tecnológicas conocidas, es conocido por su punto de vista sobre los peligros de la inteligencia artificial. Por supuesto, él es famoso no solo por esta opinión. Sin embargo, se ha opuesto a crear una forma fuerte de IA desde 2014. Luego declaró públicamente por primera vez que la inteligencia artificial podría ser peligrosa. Stephen Hawking y muchos otros científicos, futurólogos y especialistas en TI están de acuerdo con él. Se cree que toda la humanidad puede ser víctima de la singularidad tecnológica.

Lo más peligroso, según Mask, es la tendencia a crear un arma autónoma "inteligente". Según el empresario, el riesgo de aparición de "robots asesinos" es muy alto, por lo que es necesario tratar este problema con la mayor atención posible. "La tercera revolución en armamentos" ya está cerca, los expertos están convencidos y los "robots asesinos" autónomos son una especie de caja de Pandora. Queda muy poco tiempo para resolver el problema.

Hace aproximadamente una semana, Musk, junto con 115 destacados expertos de diversos campos de la ciencia y la tecnología, firmó una carta abierta , cuyos autores solicitan a la ONU que aborde este problema lo antes posible.

La carta se firmó en la Conferencia Internacional Conjunta sobre Inteligencia Artificial (IJCAI 2017) , que se celebró en Melbourne. Por cierto, entre los firmantes, y el fundador de DeepMind Mustafa Suleiman, así como Jerome Monce, el jefe de la compañía Aldebaran Robotics, que desarrolló el robot Pepper. Si los jefes de las empresas al frente del progreso tecnológico firman esta carta, entonces probablemente valga la pena considerar el problema.

La carta, en particular, establece que la IA y la robótica se están desarrollando a un ritmo tan rápido que la posibilidad de librar una guerra con armas autónomas, incluidos los robots, es cada vez más probable. Además, esto es una cuestión de los próximos años, y no décadas en absoluto, como se pensaba anteriormente. Así que ahora es necesario pensar cómo la tecnología puede afectar el destino de la humanidad. Y, en primer lugar, los líderes de los estados donde la tecnología se está desarrollando lo más activamente posible deberían pensar en esto.

Se puede agregar a esto la amenaza de que tales tecnologías caigan en manos de terroristas y autócratas que, sin ningún remordimiento, enviarán herramientas mortales contra la gente común. Incluso si esto se puede evitar, sigue existiendo la amenaza de piratear sistemas, y es completamente distinto de cero. Los hackers han demostrado en repetidas ocasiones que casi todo puede ser pirateado, sin importar qué tan bien este "todo" esté protegido.

Ya hay desarrollos de armas mortales que operan en modo autónomo o semiautónomo. Entre otros, este es un dispositivo de este tipo.



La foto es solo para demostrar cómo las armas pueden equiparse con robots en futuras guerras. Pero ya ahora los drones están volando en el cielo, capaces de trabajar en modo automático. Y las naves están equipadas con cañones automáticos que rastrean independientemente una posible amenaza.

Los gobiernos de varios países no están de acuerdo con el punto de vista de los científicos y tecnólogos por varias razones. Lo principal, para los estados, las armas autónomas, esto es beneficioso. Puede aumentar la efectividad de la protección fronteriza o reducir el número de muertes de soldados en caso de conflictos locales o regionales. Entonces, en 2015, el gobierno del Reino Unido se opuso a la prohibición de las armas letales autónomas. Además, el desarrollo de armas de este tipo es muy activo aquí.

Bueno, el punto de vista de los científicos que se oponen a los "robots asesinos" autónomos queda bien ilustrado por la declaración del fundador de Element AI, Joshua Benggio: "Firme una carta abierta, ya que el uso de IA en sistemas de armas autónomas contradice mi comprensión de la ética, todo lo cual puede conducir a una escalada muy peligrosa, afectar todo el alcance del desarrollo de IA. La situación debe tomarse bajo el control de la comunidad internacional, tal como se ha hecho con otros tipos de armas (biológicas, químicas, nucleares) ".



"La creación de armas autónomas letales nos permite ampliar las guerras a proporciones sin precedentes que son incluso difíciles de imaginar", decía la carta. Y, probablemente, los autores de la carta tienen razón.




Source: https://habr.com/ru/post/es406273/


All Articles