Este texto no es el resultado de una investigación científica, sino una de las muchas opiniones sobre nuestro desarrollo tecnológico inmediato. Y al mismo tiempo una invitación a la discusión.Gary Marcus, profesor de la Universidad de Nueva York, está convencido de que el aprendizaje profundo juega un papel importante en el desarrollo de la IA. Pero también cree que el entusiasmo excesivo por esta técnica puede conducir a su descrédito.
En su libro
Rebooting AI: Building inteligencia artificial en la que podemos confiar, Marcus, un neurólogo capacitado que desarrolló su carrera en la investigación de IA de vanguardia, aborda cuestiones técnicas y éticas. Desde el punto de vista tecnológico, el aprendizaje profundo puede imitar con éxito la solución de las tareas de percepción que realiza nuestro cerebro: por ejemplo, el reconocimiento de imágenes o el habla. Pero para resolver otras tareas, como comprender conversaciones o determinar relaciones causales, el aprendizaje profundo no es bueno. Para crear máquinas inteligentes más avanzadas que puedan resolver una gama más amplia de tareas, a menudo llamadas inteligencia artificial general, el aprendizaje profundo debe combinarse con otras técnicas.
Si el sistema de inteligencia artificial no comprende realmente sus tareas o el mundo que lo rodea, esto puede tener consecuencias peligrosas. Incluso los cambios inesperados más pequeños en el entorno del sistema pueden conducir a su comportamiento erróneo. Ya ha habido muchos ejemplos de este tipo: determinantes de expresiones inapropiadas que son fáciles de engañar; sistemas de búsqueda de empleo que discriminan constantemente; vehículos no tripulados que entran en accidentes y algunas veces matan a un conductor o peatón. La creación de inteligencia artificial general no es solo un problema de investigación interesante, tiene muchas aplicaciones completamente prácticas.
En su libro, Marcus y su coautor Ernest Davis propusieron abogar por un camino diferente. Creen que todavía estamos lejos de crear una IA común, pero están seguros de que tarde o temprano será posible crearla.
¿Por qué necesitamos una IA común? Ya se han creado versiones especializadas y aportan muchos beneficios.Es cierto, y los beneficios serán aún mayores. Pero hay muchas tareas que la IA especializada simplemente no puede resolver. Por ejemplo, comprender el habla ordinaria, o la ayuda general en el mundo virtual, o un robot que ayuda con la limpieza y la cocina. Dichas tareas están más allá de las capacidades de la IA especializada. Otra pregunta práctica interesante: ¿es posible crear un coche no tripulado seguro utilizando una IA especializada? La experiencia muestra que dicha IA todavía tiene muchos problemas de comportamiento en situaciones anormales, incluso al conducir, lo que complica mucho la situación.
Creo que a todos nos gustaría obtener una IA que pueda ayudarnos a hacer nuevos descubrimientos a gran escala en medicina. No está claro si las tecnologías actuales son adecuadas para esto, porque la biología es un campo complejo. Uno debe estar preparado para leer muchos libros. Los científicos entienden las relaciones causa-efecto en la interacción de redes y moléculas, pueden desarrollar teorías sobre planetas, etc. Sin embargo, con IA especializada, no podemos crear máquinas capaces de tales descubrimientos. Y con la IA común, podríamos revolucionar la ciencia, la tecnología y la medicina. En mi opinión, es muy importante seguir trabajando en una IA común.
¿Suena como "general" para significar IA fuerte?Al decir "general" me refiero a que la IA podrá reflexionar y resolver de forma independiente nuevos problemas sobre la marcha. A diferencia, digamos, Guo, en el que el problema no ha cambiado en los últimos 2000 años.
La IA general debería poder tomar decisiones tanto en política como en medicina. Este es un análogo de la capacidad humana; cualquier persona cuerda puede hacer mucho. Tomas estudiantes sin experiencia y después de unos días los obligas a trabajar en casi cualquier cosa, comenzando con la tarea legal y terminando con la médica. Esto se debe al hecho de que tienen una comprensión común del mundo y son capaces de leer y, por lo tanto, pueden contribuir a una amplia gama de actividades.
La relación entre tal intelecto y uno fuerte es que un intelecto no fuerte probablemente no podrá resolver problemas comunes. Para crear algo lo suficientemente confiable que pueda funcionar con un mundo en constante cambio, es posible que necesite al menos acercarse a la inteligencia común.
Pero ahora estamos muy lejos de esto. AlphaGo puede jugar perfectamente en un tablero de 19x19, pero necesita ser reentrenado para jugar en un tablero rectangular. O tome el sistema de aprendizaje profundo promedio: puede reconocer a un elefante si está bien iluminado y la textura de su piel es visible. Y si solo la silueta de un elefante es visible, el sistema probablemente no podrá reconocerlo.
En su libro, menciona que el aprendizaje profundo no es capaz de lograr las capacidades de la IA general, porque no es capaz de una comprensión profunda.En ciencia cognitiva hablan sobre la formación de varios modelos cognitivos. Estoy sentado en una habitación de hotel y entiendo que hay un armario, hay una cama, hay un televisor que está inusualmente suspendido. Conozco todos estos elementos, no solo los identifico. También entiendo cómo están interconectados entre sí. Tengo ideas sobre el funcionamiento del mundo. No son perfectos Pueden estar equivocados, pero son muy buenos. Y en base a ellos, saco muchas conclusiones, que se convierten en una guía para mis acciones diarias.
El otro extremo es algo así como el sistema de juego Atari creado por DeepMind, en el que recordaba lo que tenía que hacer cuando veía píxeles en ciertos lugares de la pantalla. Si obtiene suficientes datos, puede parecer que tiene un entendimiento, pero de hecho es muy superficial. La prueba es que si mueve objetos por tres píxeles, entonces la IA juega mucho peor. El cambio lo está desconcertando. Esto es lo opuesto a la comprensión profunda.
Para resolver este problema, propone volver a la IA clásica. ¿Cuáles son sus ventajas que debemos intentar usar?Hay varias ventajas.
Primero, la IA clásica es en realidad un marco para crear modelos cognitivos del mundo, sobre la base de las cuales se pueden sacar conclusiones.
En segundo lugar, la IA clásica es perfectamente compatible con las reglas. Ahora en el campo del aprendizaje profundo hay una tendencia extraña cuando los especialistas intentan evitar las reglas. Quieren hacer todo en redes neuronales y no hacer nada que parezca una programación clásica. Pero hay tareas que se resolvieron con calma de esta manera, y nadie le prestó atención. Por ejemplo, construir rutas en Google Maps.
De hecho, necesitamos ambos enfoques. El aprendizaje automático le permite aprender bien de los datos, pero ayuda muy mal a la hora de mostrar la abstracción que representa un programa de computadora. La IA clásica funciona bien con abstracciones, pero debe programarse completamente de forma manual, y hay demasiado conocimiento en el mundo para programarlas todas. Obviamente, necesitamos combinar ambos enfoques.
Esto está relacionado con el capítulo en el que habla sobre lo que podemos aprender de la mente humana. Y, en primer lugar, sobre el concepto basado en la idea mencionada anteriormente de que nuestra conciencia consiste en muchos sistemas diferentes que funcionan de diferentes maneras.Creo que hay otra forma de explicar esto: cada sistema cognitivo que tenemos realmente resuelve diferentes problemas. Se deben diseñar partes similares de IA para resolver varios problemas que tienen características diferentes.
Ahora estamos tratando de usar algunas tecnologías todo en uno para resolver problemas que son radicalmente diferentes entre sí. Comprender una oración no es lo mismo que reconocer un objeto. Pero las personas en ambos casos intentan utilizar el aprendizaje profundo. Desde un punto de vista cognitivo, estas son tareas cualitativamente diferentes. Estoy sorprendido de lo poco que la comunidad de expertos en aprendizaje profundo valora la IA clásica. ¿Por qué esperar a que aparezca una bala de plata? Es inalcanzable, y las búsquedas infructuosas no permiten comprender la complejidad de la tarea de crear IA.
También mencionas que los sistemas de IA son necesarios para comprender las relaciones causa-efecto. ¿Crees que el aprendizaje profundo, la IA clásica o algo completamente nuevo nos ayudará en esto?Esta es otra área para la cual el aprendizaje profundo no es muy adecuado. No explica las causas de algunos eventos, pero calcula la probabilidad de un evento en determinadas condiciones.
De que estamos hablando Observa ciertos escenarios y comprende por qué sucede esto y qué puede suceder si algunas circunstancias cambian. Puedo mirar el soporte en el que se encuentra el televisor e imaginar que si le corto una de sus piernas, el soporte se volcará y el televisor se caerá. Esta es una relación causal.
La IA clásica nos da algunas herramientas para esto. Puede imaginar, por ejemplo, qué es el apoyo y qué es la caída. Pero no voy a alabar. El problema es que la IA clásica en su mayor parte depende de la integridad de la información sobre lo que está sucediendo, pero concluí solo mirando el soporte. De alguna manera puedo generalizar, imaginar partes del stand que no son visibles para mí. Todavía no tenemos herramientas para implementar esta propiedad.
También dices que las personas tienen un conocimiento innato. ¿Cómo se puede implementar esto en la IA?En el momento del nacimiento, nuestro cerebro ya es un sistema muy cuidadosamente pensado. No es fijo, la naturaleza creó el primer borrador. Y luego el aprendizaje nos ayuda a revisar este borrador a lo largo de nuestras vidas.
Un borrador del cerebro ya tiene ciertas capacidades. Una cabra de montaña recién nacida en unas pocas horas puede descender con precisión la pendiente de la montaña. Obviamente, él ya comprende el espacio tridimensional, su cuerpo y la relación entre ellos. Sistema muy complicado.
Esto es en parte por lo que creo que necesitamos híbridos. Es difícil imaginar cómo puede crear un robot que funcione bien en el mundo sin un conocimiento similar, dónde comenzarlo, en lugar de comenzar desde cero y aprender de una larga y vasta experiencia.
Para los humanos, nuestro conocimiento innato proviene de nuestro genoma, que ha evolucionado con el tiempo. Y con los sistemas de inteligencia artificial, tenemos que ir hacia otro lado. En parte, estas pueden ser las reglas para construir nuestros algoritmos. En parte, estas pueden ser reglas para crear estructuras de datos que estos algoritmos manipulan. Y en parte, esto puede ser el conocimiento de que invertiremos directamente en máquinas.
Curiosamente, en el libro traes a la idea de la confianza y la creación de sistemas de confianza. ¿Por qué elegiste este criterio?Creo que hoy todo esto es un juego de pelota. Me parece que estamos viviendo un momento extraño en la historia, confiando en gran medida en un software que no es confiable. Creo que las ansiedades inherentes de hoy no durarán para siempre. En cien años, la IA justificará nuestra confianza, y tal vez incluso antes.
Pero hoy, la IA es peligrosa. No en el sentido de que Elon Musk teme, sino en el hecho de que los sistemas de entrevistas de trabajo discriminan a las mujeres, independientemente de lo que hagan los programadores, porque sus herramientas son demasiado simples.
Me gustaría que tengamos una mejor IA. No quiero que comience el "invierno de la inteligencia artificial", cuando las personas se den cuenta de que la IA no está funcionando y solo es peligrosa, y no quieren arreglarla.
En cierto modo, tu libro realmente parece muy optimista. Sugieres que puedes construir una IA creíble. Solo necesitamos mirar en una dirección diferente.Es cierto que el libro es muy pesimista a corto plazo y muy optimista a largo plazo. Creemos que todos los problemas descritos por nosotros pueden resolverse si analizamos más ampliamente cuáles deberían ser las respuestas correctas. Y creemos que si esto sucede, el mundo mejorará.