Los desarrolladores de IA y robótica escriben una carta abierta contra la creación de armas autónomas



Los líderes del mundo de TI y ciencia firmaron una carta abierta pidiendo la prohibición del desarrollo de robots militares autónomos , como se supo por el comunicado de prensa oficial de la compañía FutureOfLife, que crea peticiones y recolecta firmas. Entre las personalidades conocidas, se puede distinguir al brillante físico Stephen Hawking , al cofundador de Apple Steve Wozniak y al jefe de Tesla, Ilon Mask .

Del texto publicado se desprende que la decisión de firmar aparece en la mente de personas realmente buenas debido a la amenaza de otra "carrera armamentista".

“Las armas autónomas seleccionan y disparan objetivos sin intervención humana. Podrían, por ejemplo, decidir eliminar a una persona que no cumple con ciertos criterios propios, por lo que esto no se aplica a los drones tripulados y misiles de crucero. La tecnología de Inteligencia Artificial (IA) ha llegado a un punto en el que el despliegue de dichos sistemas, si no es para prohibirlo, es un proyecto totalmente factible en los próximos diez años. Recordemos que las armas autónomas se describieron anteriormente como la tercera revolución en la guerra después de la pólvora y las armas nucleares ”, se lee en el texto de la carta.

“Por supuesto, se dice mucho a favor de las armas autónomas. Por ejemplo, el reemplazo casi completo del factor humano en el campo de batalla y, por lo tanto, la preservación de la mayoría de las vidas de los participantes en la guerra. Pero no olvide que la creación de una IA de este tipo tendrá las consecuencias más devastadoras: comenzará la carrera armamentista, y recordamos lo que trajo a la última vez (crisis caribeña - aprox. Autor). Además, este tipo de arma resultará bastante barata, y fuerzas similares aparecerán en servicio con muchos ejércitos del mundo, e incluso eso, con terroristas. Las armas autónomas son ideales para tareas como matar, desestabilizar países, subyugar a la población y matar selectivamente a un grupo étnico en particular.

Así como los químicos con biólogos una vez apoyaron la prohibición de las armas nucleares, los empleados de las compañías de armas intelectuales deben oponerse a esto, porque la creación de tales medios de destrucción simplemente reducirá nuestra importancia social.

Creemos que el conocimiento y las habilidades de AI no son suficientes para lograr algo que realmente valga la pena y sea útil para la humanidad, así que permítales concentrarse en ello. Iniciar una carrera de armas autónomas inteligentes es una muy mala idea y debería evitarse prohibiendo la creación de armas mortales fuera del control humano ”, finaliza el llamamiento a la comunidad mundial.

Se espera que la petición sea leída oficialmente en la conferencia internacional sobre inteligencia artificial en Buenos Aires.

Source: https://habr.com/ru/post/es382357/


All Articles