Los algoritmos de aprendizaje automático aún no entienden la realidad de la manera en que las personas lo hacen, a veces con consecuencias desastrosasSobre el autor:
Melanie Mitchell es profesora de informática en la Universidad Estatal de Portland y profesora visitante en el Instituto Santa Fe. Su libro, Inteligencia artificial: una guía para personas pensantes, será publicado en 2019 por Farrar, Straus y Giroux
Visitante de la Expo de Inteligencia Artificial en Sudáfrica, septiembre de 2018. Foto: Nic Bothma / EPA, a través de ShutterstockProbablemente hayas escuchado que estamos en medio de una revolución de IA. Se nos dice que la inteligencia artificial está progresando a una velocidad asombrosa, confiando en algoritmos de "aprendizaje profundo" que utilizan grandes cantidades de datos para entrenar programas complejos conocidos como "redes neuronales".
Los programas de hoy pueden reconocer caras y grabar discursos. Tenemos programas para detectar fraudes financieros sutiles, para encontrar páginas web relevantes en respuesta a solicitudes ambiguas, para establecer la ruta óptima en casi cualquier lugar, estos programas derrotan a los grandes maestros en ajedrez y Go y traducen entre cientos de idiomas. Además, se nos prometen vehículos no tripulados, diagnósticos automáticos de cáncer, robots de limpieza de casas e incluso descubrimientos científicos automáticos pronto y en todas partes.
El fundador de Facebook, Mark Zuckerberg,
dijo recientemente que en los próximos cinco a diez años, la compañía desarrollará inteligencia artificial para "superar el nivel de una persona en todos los sentidos básicos: visión, audición, lenguaje, comprensión general". Shane Legg, investigador jefe de DeepMind de Google,
predice que "la IA superará el nivel humano a mediados de la década de 2020".
Como persona que trabajó en el campo de la IA durante varias décadas, presencié el fracaso de muchas de estas predicciones. Y estoy seguro de que las últimas previsiones tampoco se harán realidad. El problema de crear inteligencia humana en máquinas sigue siendo altamente subestimado. Los sistemas de inteligencia artificial de hoy carecen de la esencia de la inteligencia humana:
comprender las situaciones que estamos viviendo, la capacidad de comprender su significado. El matemático y filósofo Gian-Carlo Rota hizo la famosa pregunta: "Me pregunto si la IA podrá alguna vez superar la barrera de la comprensión". Para mí, este sigue siendo el problema más importante.
La falta de comprensión humana en las máquinas es enfatizada por los problemas que han aparecido recientemente en los fundamentos de la IA moderna. Aunque los programas modernos son mucho más impresionantes que los sistemas hace 20-30 años, una serie de estudios muestran que los sistemas de aprendizaje profundo demuestran inseguridad de maneras completamente inhumanas.
Daré algunos ejemplos.
"El hombre con la cabeza descubierta necesita un sombrero" [El hombre con la cabeza descubierta necesitaba un sombrero]: el programa de reconocimiento de voz en el teléfono reconoce esta frase como "El hombre con cabeza de oso necesitaba un sombrero". La frase "puse el cerdo en el corral" [puse el cerdo en el corral] Google Translate se traduce al francés como "puse el cerdo en el corral" [Je mets le cochon dans le stylo].
Los programas que “leen” documentos y responden preguntas sobre ellos se
engañan fácilmente si se agregan fragmentos de texto cortos e irrelevantes al documento.
Del mismo modo, los programas que reconocen caras y objetos (el famoso triunfo del aprendizaje profundo) fallan si cambia un poco los datos de entrada con ciertos tipos de iluminación, filtrado de imágenes y otros cambios que no afectan en lo más mínimo la eficiencia del reconocimiento humano de los objetos. .
Un estudio reciente
mostró que agregar una pequeña cantidad de "ruido" a una imagen facial interfiere seriamente con los programas modernos de reconocimiento facial.
Otro estudio , llamado humorísticamente "Elefante en una habitación", muestra que una pequeña imagen de un objeto extraño, como un elefante, en la esquina de la imagen de la sala de una manera extraña hace que los sistemas de visión artificial en el aprendizaje profundo clasifiquen incorrectamente otros objetos.
Además , los
programas que han aprendido a jugar magistralmente un videojuego específico o un juego de mesa en el nivel "sobrehumano" se pierden por completo con el más mínimo cambio en las condiciones (cambiando el fondo en la pantalla o cambiando la posición de la "plataforma" virtual para golpear la "pelota").
Estos son solo algunos ejemplos que demuestran la poca confiabilidad de los mejores programas de IA si la situación es ligeramente diferente de aquellos en los que se entrenaron. Los errores en estos sistemas van desde ridículos e inofensivos hasta potencialmente catastróficos. Por ejemplo, imagine un sistema de seguridad del aeropuerto que no le permitirá abordar un vuelo porque su cara ha sido confundida con la cara de un criminal, o un vehículo no tripulado que, debido a condiciones de iluminación inusuales, no ha notado que se está yendo en una intersección.
Aún más alarmantes son las recientes demostraciones de vulnerabilidades de IA a los llamados ejemplos "hostiles". En ellos, un pirata informático malintencionado puede realizar ciertos cambios en las imágenes, el sonido o el texto que son invisibles o insignificantes para los humanos, pero pueden provocar errores de IA potencialmente catastróficos.
La posibilidad de tales ataques se muestra en casi todas las áreas de IA, incluida la visión por computadora, el procesamiento de imágenes médicas, el reconocimiento y el procesamiento del habla. Numerosos estudios han demostrado la facilidad con la que los piratas informáticos pueden engañar a los sistemas de reconocimiento facial u objetos con
cambios de imagen
escasos .
Las etiquetas adhesivas invisibles en la señal de stop Stop obligan al sistema de visión artificial en un vehículo no tripulado a tomarlo como "Take the road", y la
modificación de la señal de sonido que suena como música de fondo para una persona le dice al sistema Siri o Alexa que ejecute en secreto un cierto comando.
Estas vulnerabilidades potenciales ilustran por qué el progreso actual de la IA se basa en una barrera para la comprensión. Cualquiera que trabaje con sistemas de inteligencia artificial sabe que detrás de una fachada similar a la visión humana, el habla y las habilidades de juego, estos programas
no comprenden absolutamente, de ninguna manera humana, los datos de entrada que reciben para el procesamiento y los resultados que producen. La falta de tal comprensión hace que estos programas sean susceptibles a errores inesperados y ataques invisibles.
¿Qué se requerirá para superar esta barrera para que las máquinas puedan comprender mejor las situaciones que enfrentan, en lugar de depender de piezas pequeñas? Para encontrar la respuesta, debe recurrir al estudio del conocimiento humano.
Nuestra propia comprensión de las situaciones a las que nos enfrentamos se basa en "conceptos de sentido común" amplios e intuitivos sobre cómo funciona el mundo y los objetivos, los motivos y el comportamiento probable de otros seres vivos, especialmente otras personas. Además, nuestra comprensión del mundo se basa en nuestras habilidades básicas
para generalizar lo que sabemos, para formar conceptos abstractos y hacer analogías; en resumen, adaptar de manera flexible nuestros conceptos a nuevas situaciones. Durante décadas, los investigadores han experimentado con la enseñanza de la inteligencia artificial intuitiva, el sentido común y las habilidades humanas sostenibles para generalizar, pero se ha avanzado poco en este asunto tan difícil.
Los programas de IA con falta de sentido común y otros aspectos clave de la comprensión humana se implementan cada vez más en aplicaciones del mundo real. Mientras que algunas personas se preocupan por la "superinteligencia" de la IA, el aspecto más peligroso de la IA es que confiamos demasiado y le damos demasiada autonomía a dichos sistemas sin ser plenamente conscientes de sus limitaciones. Como señaló el investigador Pedro Domingos en su libro, "El algoritmo principal":
"La gente teme que las computadoras se vuelvan demasiado inteligentes y se apoderen del mundo, pero el problema real es que son demasiado estúpidas y ya lo han tomado" .
La carrera de comercialización de IA presionó enormemente a los investigadores para crear sistemas que funcionen "razonablemente bien" en tareas estrechas. Pero, en última instancia, el objetivo de desarrollar una IA
confiable requiere un estudio más profundo de nuestras propias habilidades notables y una nueva comprensión de los mecanismos cognitivos que nosotros mismos utilizamos para comprender de manera confiable el mundo que nos rodea. Es probable que superar la barrera para comprender la IA retroceda un paso, desde redes y conjuntos de datos cada vez más grandes hasta las raíces de la industria como una ciencia interdisciplinaria que estudia el problema científico más complejo: la naturaleza de la inteligencia.