La guerra de la IA está comenzando a dominar las estrategias de Estados Unidos y China, pero ¿están las tecnologías listas para esto?

En marzo pasado, investigadores chinos anunciaron su intención de lanzar un ataque brillante y potencialmente devastador contra uno de los activos tecnológicos más valiosos de Estados Unidos: el automóvil eléctrico Tesla.
Un equipo del laboratorio de seguridad del gigante tecnológico chino Tencent mostró varias formas de engañar al algoritmo de inteligencia artificial de Tesla. Al cambiar ligeramente los datos que van a los sensores del automóvil, los investigadores lograron confundir a la IA que conducía el automóvil.
En un caso, había un patrón oculto en la pantalla del televisor que hacía que los limpiadores funcionaran.
En otro, las marcas en la carretera se modificaron ligeramente para confundir el sistema de conducción autónomo, después de lo cual cambió el automóvil a un carril adyacente.
Los algoritmos de Tesla generalmente hacen un gran trabajo al detectar gotas de lluvia en el parabrisas o seguir las marcas viales, pero su principio operativo es fundamentalmente diferente de la percepción humana. Debido a esto, resulta sorprendentemente fácil engañar a los algoritmos de aprendizaje profundo (ganando popularidad rápidamente en áreas como el reconocimiento facial y el diagnóstico de cáncer) si conoce sus debilidades.
Puede parecer que en la confusión del auto Tesla no hay amenazas estratégicas para los Estados Unidos. Pero, ¿qué pasaría si se usaran tecnologías similares para engañar a los drones de batalla o software que analiza imágenes de satélite para que vea objetos que no están en las imágenes, o no ve lo que realmente es?
La acumulación de inteligencia artificial.
En todo el mundo, la IA ya se considera el siguiente paso para obtener una ventaja militar significativa.
Este año, Estados Unidos anunció la implementación de una estrategia en la que la IA se utilizará en muchos campos militares, incluido el análisis de datos, la toma de decisiones, los vehículos autónomos, la logística y las armas. De los $ 718 mil millones solicitados por el Ministerio de Defensa para 2020, $ 927 millones se destinarán a inteligencia artificial y aprendizaje automático. Entre los proyectos existentes, hay dos aburridos (verificando si la IA puede predecir la necesidad de dar servicio a tanques y camiones) y las cosas más avanzadas en el campo de armamentos (enjambres de drones).
El Pentágono aboga por el uso de la IA, en particular por temor a que sus adversarios usen su tecnología. El año pasado, Jim Mattis, como Secretario de Defensa, le envió al presidente Donald Trump una nota de advertencia de que Estados Unidos ya se está quedando atrás en materia de IA. Su ansiedad puede ser entendida.
En julio de 2017, China dio a conocer su estrategia de IA, diciendo que "los países desarrollados más grandes del mundo aceptan el desarrollo de AI como la estrategia principal para mejorar la posición competitiva y proteger la seguridad del Estado". Unos meses después, Vladimir Putin, el presidente de Rusia, hizo la siguiente predicción: "Cualquiera que se convierta en un líder en IA gobernará el mundo" [
esta es una traducción literal del pasaje citado del artículo original. Pero, como suele suceder, la cita está distorsionada. Ella sonó así : "Si alguien puede garantizar un monopolio en el campo de la inteligencia artificial, entonces todos entendemos las consecuencias: se convertirá en el gobernante del mundo" / aprox. perev. ]
El deseo de construir las armas más inteligentes y mortales se puede entender, pero, como muestra el truco de Tesla, un enemigo que conoce los principios del algoritmo de IA puede neutralizarlo o incluso volverlo contra los propietarios. El secreto para ganar guerras de IA puede no ser construir las armas más impresionantes, sino dominar el arte del engaño traicionero del software.
Batalla bots
En un día soleado y brillante, el verano pasado en Washington, DC, Michael Canaan se sentó en el café del Pentágono, comió un sándwich y se sorprendió con el nuevo conjunto de algoritmos de aprendizaje automático.
Unas semanas antes, Kanaan había visto un videojuego en el que cinco algoritmos de IA funcionaban juntos, y casi venció y burló a cinco personas en una competencia en la que necesitaban controlar fuerzas, campamentos y recursos dispersos en un campo de batalla grande y complejo. Sin embargo, Kanaan frunció el ceño debajo de su corto cabello rubio mientras describía lo que estaba sucediendo. Fue la demostración más impresionante de la estrategia de IA de todo lo que vio: una sacudida inesperada de IA, similar a la que sucedió en el ajedrez, juegos para Atari, etc.
Estos combates se desarrollaron en Dota 2, un popular videojuego de NF que sigue siendo increíblemente complejo para las computadoras. Los equipos deben defender sus territorios atacando el campamento enemigo en un entorno más complejo y traicionero que cualquier juego de mesa. Los jugadores solo pueden ver una pequeña parte de todo el campo, y puede llevar aproximadamente media hora determinar si su estrategia está ganando.
Los oponentes bajo el control de la IA no fueron desarrollados por los militares, sino por OpenAI, que fue creado para realizar investigaciones básicas en el campo de la IA por las luminarias de Silicon Valley, incluidos Elon Mask y Sam Altman. Estos guerreros algorítmicos, conocidos como OpenAI Five, desarrollaron su propia estrategia ganadora, practicando el juego incansablemente y utilizando movimientos que demostraron ser los mejores.
Este es el tipo de software que le interesa a Canaan, uno de los que debe usar la inteligencia artificial para modernizar el ejército estadounidense. Desde su punto de vista, este software muestra las ventajas que recibirá el ejército, contando con la ayuda de los principales investigadores mundiales en el campo de la IA. Sin embargo, si están listos para proporcionarlo, esta pregunta se está agudizando.
Kanaan dirigió el Proyecto Maven de la Fuerza Aérea de los Estados Unidos, una iniciativa militar destinada a utilizar la IA para automatizar el reconocimiento de objetos en fotografías aéreas. Google fue el contratista del proyecto, y cuando en 2018 algunos empleados de la compañía se enteraron de esto, la compañía decidió abandonar este proyecto. Después de eso, la compañía lanzó las reglas para usar IA, donde escribió que Google no usará su IA para desarrollar "armas u otras tecnologías cuyo propósito principal o método de implementación implique causar lesiones a las personas".
Google fue seguido por empleados de otras grandes empresas de tecnología, que exigían a los empleadores abstenerse de contratos militares. Muchos investigadores prominentes de IA han apoyado los intentos de organizar una prohibición global de armas totalmente autónomas.
Sin embargo, para Kanaan, será un gran problema si los militares no pueden trabajar con investigadores, como los que desarrollaron OpenAI Five. La perspectiva en la que el adversario tendrá acceso a una tecnología tan avanzada parece aún más desagradable. "El código es de dominio público, todos pueden usarlo", dijo. Y agregó: la guerra es mucho más complicada que un videojuego ".

Oleada de IA
Kanaan enfatiza la pregunta con AI, en particular porque sabe de primera mano lo útil que puede ser para los militares. Hace seis años, era un oficial de inteligencia en Afganistán para la Fuerza Aérea de los EE. UU. Y era responsable de desplegar un nuevo dispositivo de recopilación de inteligencia: un analizador hiperespectral. Esta herramienta puede detectar objetos ocultos a la vista, como tanques cubiertos con tela de camuflaje o emisiones de una fábrica de explosivos ilegales. Kanaan dice que este sistema permitió a los militares eliminar miles de kilogramos de explosivos del campo de batalla. Y aún así, a menudo, los analistas no podían en la práctica analizar las enormes cantidades de datos recopilados por el analizador. "Pasamos demasiado tiempo mirando los datos y muy poco tiempo tomando decisiones", dice. "A veces se arrastraba tanto que comenzamos a pensar si podríamos salvar aún más vidas".
La solución se puede encontrar en un avance realizado en el campo de la visión por computadora por un equipo de la Universidad de Toronto bajo la dirección de Joffrey Hinton. Los científicos han demostrado que un algoritmo inspirado en una red neuronal multicapa puede reconocer objetos con una precisión sin precedentes si se le proporciona suficiente información y potencia informática.
Aprender una red neuronal implica que recibirá datos, por ejemplo, píxeles de imagen, y los procesará, cambiando constantemente las conexiones internas en la red utilizando técnicas matemáticas, de modo que la salida esté lo más cerca posible de un resultado específico, por ejemplo, determinar si Imagen del objeto. Con el tiempo, estas redes neuronales de aprendizaje profundo aprenden a reconocer patrones de píxeles que indican, por ejemplo, personas u hogares. Los avances en el aprendizaje profundo generaron el auge actual de la IA; Esta tecnología es la base de los sistemas independientes para los algoritmos Tesla y OpenAI.
Kanaan reconoció de inmediato el potencial del aprendizaje profundo para procesar varios tipos de imágenes y datos de sensores para operaciones militares. Él y sus colegas de la Fuerza Aérea pronto comenzaron a agitar a las autoridades para invertir en esta tecnología. Sus esfuerzos contribuyeron al avance del Pentágono de los planes de desarrollo de IA.
Sin embargo, poco después de que el aprendizaje profundo irrumpiera en el campo de la IA, los investigadores descubrieron que las mismas propiedades que lo hacen una herramienta tan poderosa también son su talón de Aquiles.
Si es posible calcular cómo ajustar los parámetros de la red para que clasifique correctamente el objeto, entonces es posible calcular qué cambios mínimos en la imagen pueden hacer que la red cometa un error. En tales "ejemplos competitivos", después de cambiar solo unos pocos píxeles de la imagen, se ve igual para una persona, pero el algoritmo de IA lo percibe de una manera completamente diferente. El problema puede ocurrir dondequiera que se use el aprendizaje profundo, por ejemplo, en la gestión de vehículos robóticos, la planificación de misiones o la detección de ataques de red.
Y en medio de todo este crecimiento activo en el uso de la IA para fines militares, pocas personas notan las misteriosas vulnerabilidades en el software.
Objetivos móviles
Un objeto notable ilustra todo el poder del aprendizaje automático competitivo. Esta es una imagen de un error.
Parece normal para mí o para ti, pero ella ve un dron o un robot con un cierto algoritmo de visión artificial obtenido a través del entrenamiento profundo ... como un arma. De hecho, el patrón único de las marcas en el caparazón de la tortuga se puede volver a hacer para que la visión por computadora basada en IA, accesible a través del servicio en la nube de Google, lo confunda con cualquier cosa (desde entonces, Google ha actualizado su algoritmo, y no puede engañarlo) )
Al mismo tiempo, la tortuga fue hecha no por el enemigo del estado, sino por cuatro hombres del MIT. Uno de ellos es Anish Ataliy, un joven desgarbado y muy educado que trabaja en el campo de la seguridad informática en el laboratorio de ciencias de la computación e inteligencia artificial (CSAIL). Un video que gira en su computadora portátil muestra el proceso de prueba de las tortugas (algunos de estos modelos, dijo, fueron robados en una conferencia), que se giraron 360 grados y también se volcaron. Y el algoritmo ve lo mismo allí: "escopeta", "escopeta", "escopeta".
Los primeros ejemplos competitivos eran frágiles y a menudo se negaban a trabajar, pero Ataliy y sus amigos creían que podrían desarrollar una versión bastante confiable de ese ejemplo que podría funcionar incluso en un objeto impreso en una impresora 3D. Era necesario simular objetos tridimensionales y desarrollar un algoritmo que creara una tortuga, un ejemplo competitivo que funcionará desde diferentes ángulos de visión y a diferentes distancias. En pocas palabras, se les ocurrió un algoritmo que crea algo que engaña de manera confiable el aprendizaje automático.
Las aplicaciones militares de esta tecnología son obvias. Usando algoritmos competitivos de camuflaje, tanques y aviones pueden esconderse de satélites y drones con IA. Los misiles impulsados por IA pueden quedar ciegos con datos competitivos, o incluso volver a objetivos amigables. La información suministrada a los algoritmos inteligentes puede envenenarse al disfrazar una amenaza terrorista o al atrapar soldados en el mundo real.
Atalya se sorprende de la poca preocupación que tiene sobre el aprendizaje automático competitivo. "Hablé con un grupo de personas de esta industria, preguntándoles si les preocupaban los ejemplos competitivos", dice. "Casi todos respondieron negativamente".
Afortunadamente, el Pentágono está empezando a prestar atención a esto. En agosto, el proyecto DARPA anunció el lanzamiento de varios proyectos importantes de investigación de IA. Entre ellos se encuentra GARD, un programa que se centra en el aprendizaje automático competitivo. Hawa Shigelman, profesor de la Universidad de Massachusetts y gerente de programas del GARD, dice que estos ataques pueden ser devastadores en situaciones militares porque la gente no puede reconocerlos. "Supuestamente estamos ciegos", dice. "Y eso hace que la situación sea muy peligrosa".
Los problemas de aprendizaje automático en competencia también explican por qué el Pentágono está tan interesado en trabajar con compañías como Google y Amazon, así como con institutos de investigación como el MIT. La tecnología se está desarrollando muy rápido, y los últimos avances están teniendo lugar en laboratorios administrados por compañías de Silicon Valley y las mejores universidades, en lugar de contratistas de defensa ordinarios.
Lo que es importante, también ocurren fuera de los Estados Unidos, en particular en China. "Creo que se acerca otro mundo", dice Kanaan. "Y tenemos que combatirlo con IA".
La reacción enojada al usar la IA para fines militares es comprensible, pero es posible que no vea la imagen completa. La gente está preocupada por los robots asesinos inteligentes, sin embargo, es posible que antes corramos el riesgo de una niebla de guerra algorítmica, a través de la cual incluso las máquinas más inteligentes no pueden ver nada.