IBM enseña a la IA a actuar como un cerebro humano

imagen

Desde la época de Ornithopera de Da Vinci, las mentes más grandes de la humanidad se han inspirado en el mundo natural. En el mundo moderno, nada ha cambiado, y los últimos logros en aprendizaje automático e inteligencia artificial se crearon sobre la base del órgano informático más avanzado: el cerebro humano.

Imitar nuestra materia gris no es solo una buena idea para crear una IA más avanzada. Esto es absolutamente necesario en su desarrollo posterior. Las redes neuronales basadas en el aprendizaje profundo, como las de AlphaGo , así como la generación moderna de sistemas de reconocimiento de patrones y traducción , son los mejores sistemas de aprendizaje automático que hemos desarrollado hasta la fecha. Son capaces de hacer cosas increíbles, pero aún enfrentan desafíos tecnológicos significativos. Por ejemplo, el hecho de que necesitan acceso directo a grandes conjuntos de datos para aprender una habilidad particular. Además, si desea volver a entrenar una red neuronal para realizar una nueva tarea, esencialmente necesita borrar su memoria y comenzar desde cero, un proceso conocido como "olvido catastrófico".

Compare esto con el cerebro de una persona que está aprendiendo gradualmente y no aparece inmediatamente formada por una pila de datos. Esta es una diferencia fundamental: las IA basadas en el aprendizaje profundo se generan de arriba a abajo, sabiendo todo lo que necesita desde el principio, mientras que la mente humana se construye desde cero, cuando las lecciones anteriores aplicables a nuevas experiencias se utilizan para crear nuevos conocimientos.

Además, la mente humana es especialmente buena para realizar razonamientos relacionales basados ​​en la lógica, construyendo conexiones entre experiencias pasadas para comprender nuevas situaciones sobre la marcha. La IA estadística (es decir, el aprendizaje automático) puede imitar las habilidades cerebrales en el reconocimiento de patrones, pero no funciona cuando se aplica la lógica. La IA simbólica, por otro lado, puede usar la lógica (suponiendo que haya sido entrenado en las reglas de este sistema de razonamiento), pero generalmente no puede aplicar esta habilidad en tiempo real.

Pero, ¿qué sucede si podemos combinar la mejor flexibilidad computacional del cerebro humano con las poderosas capacidades de procesamiento de IA? Esto es exactamente lo que el equipo de DeepMind intentó hacer. Crearon una red neuronal capaz de aplicar el razonamiento relacional a sus tareas. Funciona de la misma manera que una red de neuronas cerebrales. Si bien las neuronas usan diferentes relaciones entre sí para reconocer patrones: "Estamos claramente haciendo que la red detecte las relaciones que existen entre pares de objetos en este escenario", dijo Timothy Lillycrap, científico de DeepMind, a Science Magazine .

Cuando en junio se le encargaron preguntas complejas sobre las posiciones relativas de los objetos geométricos en una imagen, por ejemplo: "¿Hay un objeto frente a un objeto azul, tiene la misma forma que una pequeña cosa azul a la derecha de una bola de metal gris?" - Ella identificó correctamente el objeto en el 96% de los casos. Los sistemas convencionales de aprendizaje automático dieron la solución correcta en 42 a 77% de los casos. Incluso las personas pasaron la prueba en solo el 92% de los casos. Así es, esta IA híbrida hace un mejor trabajo que las personas que la construyeron.

Los resultados fueron los mismos cuando AI presentó problemas con la palabra. Aunque los sistemas convencionales pudieron igualar DeepMind en preguntas simples, como “Sarah tiene la pelota. Sarah entra a su oficina. ¿Dónde está la pelota? El sistema híbrido de IA estaba fuera de competencia en temas más complejos como: “Lily es un cisne. Lily es blanca Greg es un cisne. ¿De qué color es Greg? " DeepMind respondió correctamente en el 98% de los casos en comparación con aproximadamente el 45% de los competidores.

imagen

DeepMind incluso funciona en un sistema que "recuerda" información importante y aplica este conocimiento acumulado a futuras solicitudes. Pero IBM está dando dos pasos más hacia adelante. En dos trabajos de investigación presentados en la Conferencia Internacional de Colaboración 2017 sobre Inteligencia Artificial celebrada en Melbourne, Australia, la semana pasada, IBM presentó dos estudios: uno que explora cómo proporcionar "atención" a la IA y el otro que explora La cuestión de la aplicación del proceso biológico de la neurogénesis , es decir, el nacimiento y la muerte de las neuronas, para los sistemas de aprendizaje automático.

“El entrenamiento de redes neuronales generalmente está diseñado, y se necesita mucho trabajo para crear una arquitectura específica que funcione mejor. Es casi un método de prueba y error ”, dijo Iradget Irina Rish, investigadora de IBM. "Sería bueno si estas redes pudieran construirse por sí mismas".

El algoritmo de atención de IBM informa a la red neuronal sobre qué entradas proporcionan la mayor recompensa. Cuanto mayor sea la recompensa, más atención les brindará la red. Es especialmente útil en situaciones donde el conjunto de datos no es estático, es decir, en la vida real. "La atención es un mecanismo basado en recompensas, no es solo algo que no está relacionado con la toma de decisiones y nuestras acciones", dijo Rish.

"Sabemos que cuando vemos una imagen, el ojo humano generalmente tiene un campo de visión muy pequeño", dijo Rish. “Entonces, dependiendo de la resolución, solo ves unos pocos píxeles de la imagen [nítida], pero todo lo demás se ve borroso. El hecho es que mueve rápidamente los ojos, y el mecanismo para ensamblar varias partes en una imagen en la secuencia correcta le permitirá reconocer rápidamente la imagen ".

imagen

Es probable que el primer uso de la función de atención sea el reconocimiento de patrones, aunque puede usarse en varios campos. Por ejemplo, si entrena AI usando el conjunto de datos de Oxford , que es principalmente imágenes arquitectónicas, puede identificar fácilmente los paisajes urbanos correctamente. Pero si le muestra un montón de fotos del campo (campos y flores, etc.), la IA se confundirá porque no sabe qué son las flores. Y cuando realice las mismas pruebas con personas y animales, estimulará la neurogénesis, ya que sus cerebros intentan adaptar lo que ya saben sobre las ciudades a los nuevos paisajes del país.

El mecanismo le dice al sistema en qué debe enfocarse. Por ejemplo, lleve a su médico, ella puede realizar cientos de pruebas posibles para determinar qué le está molestando, pero esto es imposible: ya sea a tiempo oa precios razonables. Entonces, ¿qué preguntas debería hacer y qué pruebas deberían hacerse para obtener el mejor diagnóstico en el menor tiempo posible? "Esto es lo que el algoritmo está aprendiendo a resolver", explicó Rich. No solo determina qué solución conduce al mejor resultado, sino que también descubre dónde buscar datos. Por lo tanto, el sistema no solo toma decisiones más correctas, sino que también las toma más rápido, ya que no solicita partes del conjunto de datos que no son aplicables al problema actual. Al igual que su médico no toca sus rodillas con un pequeño martillo extraño cuando se presenta quejas de dolor en el pecho y falta de aliento.

Si bien el sistema de atención es conveniente para garantizar que la red realice la tarea, el trabajo de IBM sobre la plasticidad neuronal (qué tan bien se recuerdan las "memorias") sirve para proporcionar memoria de red a largo plazo. En realidad, esto se basa en los mismos mecanismos de nacimiento y muerte de las neuronas que se observan en el hipocampo humano.

En este sistema, "no tiene que modelar millones de parámetros", explicó Rish. "Puede comenzar con un modelo mucho más pequeño y luego, dependiendo de los datos que vea, se adaptarán".

Cuando se le presentan nuevos datos, el sistema neurogenético de IBM comienza a formar nuevas conexiones mejoradas (neuronas), mientras que algunas de las más antiguas y menos útiles serán "cortadas", como dijo Rish. Esto no significa que el sistema elimine literalmente datos antiguos, simplemente se apegue menos a ellos, al igual que sus viejos recuerdos tienden a volverse borrosos con los años, pero aquellos que conllevan un estrés emocional significativo permanecen vívidos. por muchos años

imagen

"La neurogénesis es una forma de adaptar redes profundas", dijo Rish. “Una red neuronal es un modelo, y puedes construir este modelo desde cero, o puedes cambiar este modelo cuando sea necesario, porque tienes varias capas de neuronas ocultas y puedes decidir cuántas (neuronas) quieres tener ... dependiendo de los datos ".

Esto es importante porque no desea la expansión infinita de una red neuronal. Si esto sucediera, el conjunto de datos sería tan grande que no sería capaz de pagar ni siquiera el equivalente digital de la hiperimesia. "También ayuda con la normalización, por lo que [AI] no 'cambia de opinión' sobre los datos", dijo Rish.

Juntos, estos logros podrían ser muy útiles para la comunidad de investigación de IA. El equipo de Rish quiere trabajar en lo que llaman "atención interna". No solo elegirá qué datos desea ver en la red, sino también qué partes de la red desea usar en los cálculos basados ​​en un conjunto de datos e entradas. Básicamente, el modelo de atención cubrirá un proceso de pensamiento activo a corto plazo, mientras que parte de la memoria permitirá a la red optimizar su función dependiendo de la situación actual.

Pero no esperes que en el futuro cercano, la IA pueda competir con la mente humana, advierte Richard. “Diría que al menos unas pocas décadas, pero, nuevamente, esto es solo una suposición. Lo que estamos haciendo ahora, desde el punto de vista del reconocimiento de patrones de alta precisión, todavía está muy, muy lejos del modelo básico de las emociones humanas ”, dijo. "Acabamos de empezar".



imagen
imagen

Source: https://habr.com/ru/post/es406893/


All Articles