Los desarrolladores de IA de fama mundial acuerdan no crear armas inteligentes


Los drones militares son muy "inteligentes", algunos solo operan al operador de vez en cuando y el resto del tiempo realizan la tarea por su cuenta

Las tecnologías de inteligencia artificial están creciendo rápidamente. Los especialistas enseñaron mucho sobre IA, ahora su forma débil (fuerte, afortunada o desafortunadamente aún no se ha creado) funciona en la industria, el transporte marítimo, el entretenimiento y muchas otras industrias. ¿Pero qué hay de los asuntos militares? Sí, la IA también se usa aquí, porque un análisis predictivo de la trayectoria de un cohete o vehículo, las acciones enemigas, el desarrollo de su propia estrategia: la inteligencia artificial puede hacer frente a todo esto.

Pero, ¿qué pasa si construyes IA de cualquier nivel en un arma, no será más efectiva? Lo más probable es que se convierta y sea muy "productivo". Pero aquí ya aparecen cuestiones de ética. ¿Puede una máquina controlar el destino de las personas? Muchos expertos en tecnología creen que no lo es. Y estos "muchos" firmaron recientemente una declaración, una especie de promesa de nunca participar en el desarrollo de armas inteligentes.

Entre otros especialistas que participaron en la creación y firma de la declaración estaban Elon Musk, representantes de DeepMInd y empleados de muchas otras compañías, donde los problemas de inteligencia artificial se plantean de una forma u otra. Según un grupo de científicos y empresarios que han dejado sus firmas bajo el memorándum, depende de la otra persona decidir si matar a la persona o no, y no la máquina. Y la carga de esta decisión recae sobre los hombros de quien la tomó.

En el caso de la máquina, no hay dudas morales: el sistema se envió de servicio, por ejemplo, para peinar las carreteras del país durante la guerra, y dispara a los enemigos cuando la unidad de computación le dice a la conciencia . Según los expertos, el desarrollo de armas inteligentes con elementos de IA puede convertirse en un factor desestabilizador tanto para cualquier país como para sus ciudadanos.

El texto de la declaración sobre el uso de IA en la creación de armas fue publicado después de la conferencia IJCAI (Conferencia Conjunta Internacional sobre Inteligencia Artificial) celebrada en Estocolmo. Fue organizado por el Future of Life Institute. Está estudiando los riesgos de la existencia humana. El Instituto previamente pidió abandonar la idea de crear un arma letal inteligente. Ahora esta idea ha encontrado comprensión y está comenzando a extenderse más ampliamente.

Entre los firmantes se encuentran el jefe de SpaceX y Tesla, Ilon Musk, los tres cofundadores de la filial de Google DeepMind, el creador de Skype, Jaan Tallinn, además de los investigadores de tecnología artificial de inteligencia artificial de fama mundial Stuart Russell, Joshua Benggio, Jurgen Schmidhuber.



Por separado, los firmantes señalaron que su iniciativa común debería ayudar a pasar de las palabras a los hechos en términos de abandonar las armas letales inteligentes. No, nadie va a organizar una revolución, la tarea principal es mostrar el peligro de la intelectualización gradual de las armas de cualquier tipo. “Un arma que decide independientemente a quién matar es una idea desagradable y desestabilizadora, como un arma biológica. La idea de las armas inteligentes debe tratarse de la misma manera que las armas biológicas ".

Aquí, sin embargo, hay una dificultad. El hecho es que distinguir un arma verdaderamente autónoma e "inteligente" de una que no es una es bastante difícil. La línea fantasma. Cuando las armas convencionales de alta tecnología dejan de ser estúpidas, ¿se vuelven más sabias y comienzan a decidir a quién mantener con vida y a quién matar? Torreta automática que rastrea la apariencia de las personas por radiación térmica: ¿es posible usar tal arma? ¿Y hay una gran diferencia entre las armas inteligentes y las convencionales, si se apunta automáticamente la misma torreta y una persona simplemente presiona el gatillo?

Además, la declaración en sí misma llegó tarde: unos 30 países diferentes están armados con sistemas letales, que con o sin estiramiento, pero que pueden llamarse inteligentes.

Por cierto, un hecho interesante es que los desarrolladores de Google literalmente se rebelaron cuando escucharon que la compañía iba a desarrollar sistemas autónomos para el Pentágono. A saber: dron no letal con IA.

Hablando de armas inteligentes y su futuro, uno no puede evitar recordar una historia de ciencia ficción (el autor y el nombre, desafortunadamente, no recuerdo), donde se envió una cabeza de guerra razonable con un nivel de inteligencia como el de un niño de 5 años para completar una tarea. Pero al acercarse a una base enemiga, descubrió que la gente vive allí, igual que en su propia base. Al darse cuenta de esto, decidió informar sobre todo a su creador y se fue de regreso. La historia termina con el hecho de que el cohete vuela hacia la ventana de la casa donde vive su creador, pero por razones obvias no tiene tiempo para contar nada.

Source: https://habr.com/ru/post/es417573/


All Articles