Cómo enseñar inteligencia artificial sentido común



Hace cinco años, los programadores de DeepMind, una compañía con sede en Londres con sede en AI, vieron con alegría que AI aprendía a jugar un clásico juego de arcade por sí solo. Utilizaron la tecnología de moda del aprendizaje profundo (GO) para una tarea aparentemente extraña: dominar el juego en Breakout , creado por Atari, en el que debes golpear la pelota desde la pared de ladrillos para que los ladrillos desaparezcan.

GO es autoaprendizaje para máquinas; alimenta a AI con grandes cantidades de datos, y gradualmente comienza a reconocer patrones de forma independiente. En este caso, los datos eran lo que estaba sucediendo en la pantalla: los píxeles grandes representaban ladrillos, una pelota y una raqueta. En AI DeepMind, una red neuronal que consta de algoritmos en capas, no se estableció conocimiento sobre las reglas del juego Breakout, sus principios de funcionamiento, objetivos y métodos del juego. Los programadores simplemente permitieron que la red neuronal estudiara los resultados de cada acción, cada rebote de la pelota. ¿A qué conducirá?

Resultó ser habilidades impresionantes. En los primeros intentos, la IA colgó al azar. Después de jugar varios cientos de veces, comenzó a golpear con precisión la pelota. En el juego número 600, la red neuronal ha creado movimientos expertos utilizados por personas que juegan Breakout, cuando un jugador rompe un hoyo en los ladrillos y envía la pelota para saltar sobre la pared.

"Esto fue una gran sorpresa para nosotros", dijo Demis Khasabis, director de DeepMind. "La estrategia fluyó desde el sistema mismo". La IA ha demostrado la capacidad de pensar de manera inusualmente similar a la humana, para comprender los conceptos internos que subyacen en el juego. Dado que las redes neuronales copian aproximadamente la estructura del cerebro humano, en teoría, en cierto sentido, también deberían copiar nuestro estilo de pensamiento. Este momento parecía ser una confirmación de la teoría.

Luego, el año pasado, los científicos informáticos de Vicarious, una firma de investigación de IA con sede en San Francisco, ofrecieron una forma interesante de evaluar la IA en condiciones del mundo real. Tomaron el tipo de IA que usaron en DeepMind y lo entrenaron para jugar Breakout. Lo hizo bien. Y luego comenzaron a modificar un poco el diseño del juego. Levantarán una raqueta o agregarán un área impenetrable en el centro del campo.

Un jugador humano podría adaptarse rápidamente a estos cambios; pero la red neuronal no pudo. Parece que la IA loca solo podía jugar Breakout del tipo que había estudiado durante cientos de intentos. No digirió nada nuevo.

"La gente no solo puede reconocer patrones", me dice Dilip George, un especialista en TI, uno de los fundadores de Vicarious. - Todavía estamos creando modelos de lo que vemos. Y estos modelos causales: conectamos causa y efecto ”. Las personas participan en el razonamiento, sacan conclusiones lógicas sobre el mundo que les rodea; Tenemos una base de conocimiento de sentido común que nos ayuda a comprender nuevas situaciones. Cuando vemos un Breakout ligeramente diferente del que acabamos de jugar, nos damos cuenta de que probablemente tendrá reglas y objetivos similares. La red neuronal no entendió nada sobre el Breakout. Ella solo puede seguir patrones. Cuando el patrón cambió, ella quedó indefensa.

GO es el rey de la IA. En los seis años durante los cuales irrumpió en la corriente principal, se ha convertido en la principal forma de enseñar a las máquinas cómo percibir y sentir el mundo que las rodea. Ella está detrás del reconocimiento de voz de Alexa, los autos robóticos de Waymo, las traducciones instantáneas de Google. Uber es, en cierto sentido, una tarea de optimización gigantesca, y utiliza el aprendizaje automático (MO) para predecir dónde los pasajeros necesitarán automóviles. Baidu, un gigante tecnológico chino, tiene 2.000 programadores que trabajan en redes neuronales. Durante años, parecía que GO solo mejoraría e inexorablemente daría a luz a una máquina con inteligencia flexible y rápida para igualar a una persona.

Sin embargo, algunos herejes afirman que la defensa civil linda con el muro. Dicen que solo nunca puede generar inteligencia artificial generalizada (IA), ya que una mente verdaderamente humana no es solo el reconocimiento de patrones. Es hora de que comencemos a trabajar en cómo darle a la IA el sentido común de todos los días, la mente humana. Si esto no funciona para ellos, advierten, nos encontraremos con nuestras limitaciones en GO, como sistemas de reconocimiento de patrones que pueden ser fácilmente engañados cambiando parte de la entrada, como resultado de lo cual el modelo GO tomará la tortuga por un arma. Pero si logramos hacer esto, dicen, presenciaremos el crecimiento explosivo de dispositivos más seguros y útiles: robots médicos que se mueven en una casa desordenada, sistemas de reconocimiento falsos que no sufren falsos positivos, avances médicos realizados por máquinas que estudian las causas y las consecuencias de las enfermedades.

Pero, ¿cómo es el verdadero razonamiento en un automóvil? Y si la sociedad civil no puede llevarnos a esto, ¿qué puede hacer?



Gary Marcus es un reflexivo profesor de psicología y neurología de 48 años en la Universidad de Nueva York con lentes de doble lente, y probablemente el apóstata ortodoxo de aprendizaje profundo más famoso.

Por primera vez, Marcus se interesó por la IA en los años 80 y 90, cuando las redes neuronales estaban en la fase experimental, y desde entonces sus argumentos no han cambiado. "No es que llegue tarde a la fiesta, y quiero vulgarizar todo aquí", me dijo Marcus cuando nos conocimos en su departamento cerca de la Universidad de Nueva York (él y yo también somos amigos). "Tan pronto como ocurrió la explosión de GO, dije: ¡Chicos, esta es la dirección equivocada!"

Entonces, la estrategia GO no difirió de la actual. Supongamos que necesita una máquina para aprender a reconocer las margaritas. Primero debe codificar las "neuronas" algorítmicas combinándolas en capas como un sándwich (cuando se usan varias capas, el buter se vuelve más grueso o "más profundo", de ahí el aprendizaje "profundo"). La primera capa muestra la imagen de la margarita, y sus neuronas se activan o no, dependiendo de si esta imagen se parece a ejemplos de margaritas, vistos anteriormente. La señal luego se mueve a la siguiente capa, donde se repite el proceso. Como resultado, las capas tamizan los datos y emiten un veredicto.

Primero, la red neuronal se dedica a adivinanzas ciegas; ella comienza la vida desde cero. La conclusión es organizar comentarios útiles. Cada vez que la IA no adivina la margarita, en el conjunto de neuronas, las conexiones que conducen a la respuesta incorrecta se debilitan. Si adivina, las conexiones están mejoradas. Después de que haya pasado suficiente tiempo y margaritas, la red neuronal se vuelve más precisa. Ella aprende a agarrar ciertos patrones de margaritas, lo que le permite identificar una margarita cada vez (en lugar de girasoles o asters). Con los años, la idea clave, comenzar con una red ingenua y entrenarla con repeticiones, se ha mejorado y parecía útil en casi todas las aplicaciones.

Pero Marcus no estaba convencido. Desde su punto de vista, una pizarra limpia era un problema: se supone que las personas desarrollan inteligencia solo observando el mundo que les rodea, lo que significa que las máquinas también son capaces de hacerlo. Pero Marcus cree que las personas no trabajan de esa manera. Sigue el camino intelectual trazado por Noam Chomsky , quien afirma que las personas nacen con una predisposición al aprendizaje y con un programa para aprender idiomas e interpretar el mundo físico.

Con todos sus supuestamente similares al cerebro, señala, las redes neuronales no parecen funcionar como el cerebro humano. Por ejemplo, necesitan demasiados datos. En la mayoría de los casos, cada red requiere miles o millones de ejemplos de capacitación. Peor aún, cada vez que necesita hacer que la red reconozca un nuevo elemento, debe comenzar desde cero. Una red neuronal entrenada para reconocer a los canarios no es en absoluto útil para reconocer los cantos de los pájaros o el habla humana.

"No necesitamos grandes cantidades de datos para la capacitación", dice Marcus. Sus hijos no necesitan ver un millón de automóviles antes de poder reconocer el automóvil. Lo que es aún mejor, saben cómo generalizar: cuando ven un tractor por primera vez, entienden que se parece a un automóvil. También saben asumir lo contrario. Google Translate puede dar el equivalente francés de la oración en inglés "se movió el vaso y se cayó de la mesa". Pero él no entiende el significado de las palabras y no puede decirle qué sucederá si no mueve el vaso. La gente, como señala Marcus, comprende no solo las leyes de la gramática, sino también la lógica detrás de las palabras. Puede darle al niño el verbo inventado "bailar", y lo más probable es que adivine que en tiempo pasado "bailará". Pero no había visto una palabra así antes. No estaba "entrenado". Él intuitivamente sintió la lógica del lenguaje y puede aplicarlo a una nueva situación.

"Los sistemas GO no saben cómo integrar el conocimiento abstracto", dice Marcus, quien fundó la compañía que creó la inteligencia artificial, que puede aprender de menos datos (y se los vendió a Uber en 2016).

Este año, Marcus publicó una preimpresión de trabajo en arXiv, donde afirma que sin nuevos enfoques, GO nunca podría superar sus limitaciones actuales. Necesita un gran avance: reglas integradas o complementarias que ayuden a AI a razonar sobre el mundo.

Source: https://habr.com/ru/post/es431418/


All Articles