Progreso y exageración en la investigación ai

El mayor problema con la IA no es que sea estúpido, sino la falta de definición de inteligencia y, por lo tanto, la falta de medida para ello [1a] [1b] .


La prueba de Turing no es una buena medida porque el gorila Koko no pasaría aunque podría resolver más problemas que muchos seres humanos discapacitados [2] .


Es muy posible que las personas en el futuro se pregunten por qué la gente en 2019 pensó que un agente entrenado para jugar un juego fijo en un entorno simulado como Go tenía alguna inteligencia [3a] [3b] [3c] [3d] [3e ] [3f] [3g] [3h] .


La inteligencia se trata más de aplicar / transferir conocimientos antiguos a nuevas tareas (jugar Quake Arena lo suficientemente bien sin ningún entrenamiento después de dominar Doom) que comprimir la experiencia del agente en heurística para predecir un puntaje del juego y determinar la acción del agente en un estado de juego dado para maximizar el puntaje final ( jugar Quake Arena lo suficientemente bueno después de millones de juegos después de dominar Doom) [4] .


La inteligencia humana se trata de la capacidad de adaptarse al mundo físico / social, y jugar Go es una adaptación particular realizada por la inteligencia humana, y desarrollar un algoritmo para aprender a jugar Go es más eficaz, y desarrollar una teoría matemática de Go podría ser aún más eficiente.


Tiene más sentido comparar las IA con los humanos, no por la efectividad y la eficiencia de los productos finales de adaptación (en los juegos que se juegan entre una IA y un humano) sino por la efectividad y la eficiencia del proceso de adaptación (en los juegos que se juegan entre un agente aprendido por máquina y un agente codificado en humanos después de una práctica limitada) [5] .


Dota 2, StarCraft 2, Civilization 5 y probablemente incluso GTA 5 podrían resolverse en un futuro no muy lejano, pero la capacidad de jugar cualquier juego nuevo a nivel humano sin entrenamiento previo sería mucho más importante.


El segundo problema más grande con la IA es la falta de solidez en una larga cola de situaciones sin precedentes (incluidas las críticas en el cuidado de la salud [6a] , los vehículos autónomos, las finanzas) que actualmente no se pueden manejar con precisión ni siquiera cerca de lo aceptable [6b ] [6c] [6d] [6e] [6f] .


Los modelos complejos explotan cualquier patrón que relacione las variables de entrada con salida, pero algunos patrones pueden no ser válidos para casos mal cubiertos por los datos de capacitación [sección "progreso"] [7a] [7b] [7c] . > El 99% de las aplicaciones sanitarias utilizan modelos simples como la regresión logística (el conocimiento del dominio se convierte en código para calcular estadísticas como características) a fin de evitar correlaciones espurias y ganar más solidez en los valores atípicos [8a] [8b] .


Para un agente en un entorno simulado como Go o Quake, el verdadero modelo de entorno es conocido o está disponible para que el agente pueda generar cualquier cantidad de datos de entrenamiento para aprender a actuar de manera óptima en cualquier situación. Encontrar las correlaciones en esos datos no es inteligente; para problemas del mundo real, descubrir el modelo verdadero es clave [9a] [9b] [9c] [9d] [9e] .


Para un organismo, el mundo real no es un juego fijo con entorno y reglas conocidas como Go o Quake, sino un juego con entorno y reglas en gran parte desconocidas y siempre cambiantes [10] . Tiene que adaptarse a los cambios inesperados del entorno y las reglas, incluidos los cambios causados ​​por los adversarios. Tiene que ser capaz de una amplia autonomía en lugar de una simple automatización necesaria para jugar un juego fijo.


Podría resultar imposible tener vehículos autónomos y robots humanoides operando junto a humanos sin entrenarlos para obtener adaptabilidad a nivel humano para el mundo real. Podría resultar imposible que los asistentes personales sustituyan a los humanos en aspectos clave de sus vidas sin entrenarlos para obtener adaptabilidad a nivel humano al mundo social [11a] [11b] [11c] .


conocimiento vs inteligencia


El conocimiento es cierta información, como datos de observaciones o experimentos, comprimidos y representados en alguna forma computable, como texto en lenguaje natural, teoría matemática en lenguaje semiformal, programa en lenguaje formal, pesos de redes neuronales artificiales o sinapsis del cerebro. .


El conocimiento se trata de herramientas (teoría, programa, proceso físico) para resolver problemas. La inteligencia se trata de aplicar (transferir) y crear (aprender) conocimiento [12] . Hay un conocimiento de cómo resolver un problema (un programa para computadoras, un libro de texto para humanos), y luego hay un proceso de aplicación de conocimiento (ejecución de un programa por computadora, inferir y ejecutar instrucciones por humanos), y luego hay un proceso de crear conocimiento (inferencia inductiva / aprendizaje de observaciones y experimentos, razonamiento deductivo de teorías inferidas y modelos aprendidos, ya sea por computadoras o humanos).


Alpha (Go) Zero está más cerca de un conocimiento sobre cómo resolver una clase particular de problemas que de un agente inteligente capaz de aplicar y crear conocimiento. Es un algoritmo de búsqueda como IBM Deep Blue con heurística que no está codificada sino que se ajusta durante las sesiones de juego. No puede aplicar el conocimiento aprendido a otros problemas, incluso jugar en un tablero Go más pequeño. No puede crear conocimiento abstracto útil para los humanos, incluso una simple visión de las tácticas Go. Aunque podría evocar una idea útil en un humano si juega con tácticas inusuales.


TD-Gammon de 1992 es considerado por muchos como el mayor avance en IA [13a] [13b] . TD-Gammon utilizó el algoritmo TD (λ) con actualizaciones en línea de políticas. El autor de TD-Gammon utilizó su variación para aprender la estrategia de apuestas de IBM Watson [13c] . Alpha (Go) Zero también es aproximadamente una variación de TD (λ) [13d] . TD-Gammon usó una red neuronal entrenada por el aprendizaje de Diferencia Temporal con valores objetivo calculados usando la búsqueda de árbol con una profundidad no mayor a tres y usando los resultados de los juegos jugados hasta el final como estimaciones de los valores de las hojas. Alpha (Go) Zero utilizó una red neuronal profunda entrenada por el aprendizaje de Diferencia Temporal con valores objetivo calculados usando Monte-Carlo Tree Search con una profundidad mucho mayor y usando estimaciones de valores de hoja y acciones políticas calculadas por red sin jugar juegos hasta el final.


Las diferencias cualitativas entre Backgammon y Go como problemas y entre TD-Gammon y Alpha (Go) Zero como soluciones (la escala de la red neuronal y el número de juegos jugados son diferencias importantes) no son tan grandes como las diferencias cualitativas entre juegos de información perfectos como Go y juegos de información imperfecta como Poker (AlphaZero no es aplicable a Poker, DeepStack no es aplicable a Go y Chess).


IBM Watson, el sistema de respuesta de preguntas más avanzado hasta ahora en 2011, no es un agente inteligente. Es un conocimiento representado como miles de líneas de lógica codificada manualmente para buscar y manipular secuencias de palabras, así como para generar hipótesis y reunir evidencias, además de unos pocos cientos de parámetros ajustados con regresión lineal para sopesar diferentes conocimientos para cada tipo de pregunta admitida y respuesta [14a] [14b] [14c] . No es muy diferente conceptualmente de los motores de bases de datos que usan estadísticas de datos y valores de umbral codificados para construir un plan para ejecutar una consulta dada mediante la selección y canalización de un subconjunto de algoritmos implementados para manipular datos.


IBM Watson puede aplicar su lógica para la extracción e integración de información textual (conocimiento interno) a nuevos textos (conocimiento externo). Sin embargo, no puede aplicar su conocimiento a otros problemas que no sean la respuesta limitada a preguntas factoides sin que los humanos lo codifiquen. Se puede codificar para buscar evidencias en apoyo de hipótesis en documentos sobre el cáncer, pero solo utilizando la lógica codificada por humanos para interpretar textos (extraer y unir palabras relevantes) y nunca ir más allá de eso para interpretar textos por sí mismo (modelo de aprendizaje del mundo y mapear textos para simulaciones en ese modelo). ¡El primer enfoque para interpretar textos fue suficiente para Jeopardy! [15] pero no es suficiente cuando no hay una respuesta simple. Hay una gran diferencia entre sacar conclusiones usando propiedades estadísticas de textos y usar propiedades estadísticas de fenómenos del mundo real estimados con simulaciones sobre el modelo aprendido de esos fenómenos.


IBM Watson no puede crear nuevos conocimientos: puede deducir hechos simples de fuentes de conocimiento (textos y bases de conocimiento) utilizando algoritmos codificados por humanos, pero no puede inducir una teoría de las fuentes y verificar su verdad. WatsonPaths plantea la hipótesis de un gráfico causal utilizando la búsqueda de textos relevantes para el caso [16a] [16b], pero el encadenamiento de inferencias como un enfoque para el razonamiento no puede ser lo suficientemente sólido: las inferencias deben verificarse con simulaciones o experimentos como lo hace un cerebro.


¿Qué es la inteligencia?


Los biólogos definen la inteligencia como la capacidad de encontrar soluciones no estándar para problemas no estándar (en otras palabras, la capacidad de manejar incógnitas desconocidas, en oposición a las conocidas e incógnitas conocidas) y distinguir este rasgo de los reflejos / instintos definidos como soluciones estándar para problemas estándar [17a] [17b] . Jugar a Go no puede considerarse un problema no estándar para AlphaGo después de jugar millones de juegos. La detección de nuevo malware puede considerarse un problema no estándar sin una solución a nivel humano hasta el momento.


La mayoría de los investigadores se enfocan en un enfoque de inteligencia de arriba hacia abajo con capacitación integral de un modelo, es decir, definir un objetivo para un problema de alto nivel (por ejemplo, maximizar la probabilidad esperada de ganar) y esperar que un modelo aprenda a encontrar una solución para subproblemas de bajo nivel del problema original (por ejemplo, Ko luchando en Go) [18a] . Este enfoque funciona para problemas relativamente simples como juegos fijos en entornos simulados, pero requiere una enorme cantidad de episodios de entrenamiento (varios órdenes de magnitud más que la cantidad que puede experimentar un agente en el mundo real) y conduce a soluciones incapaces de generalización (modelo AlphaGo entrenado en tablero 19x19 es efectivamente inútil para tablero 9x9 sin reentrenamiento completo). Los problemas de alto nivel más difíciles que pueden ser resueltos por los humanos son abiertos: los humanos no buscan en el espacio fijo soluciones posibles a diferencia de AlphaGo [18b] . Al estar informados y guiados por observaciones y experimentos en el mundo real, los humanos encuentran buenos subproblemas, por ejemplo, relatividad especial y general.


Unos pocos investigadores [sección "direcciones posibles"] se centran en un enfoque de abajo hacia arriba, es decir, comenzando con algunos objetivos de bajo nivel (por ejemplo, maximizando la capacidad de predecir la dinámica del entorno, incluido el efecto de las acciones del agente en el entorno), y luego agregando algunos de alto nivel objetivos para la motivación intrínseca del agente (por ejemplo, maximizar el progreso del aprendizaje o maximizar las opciones disponibles) [19a] [19b] , y solo luego agregar un objetivo de alto nivel para un problema de interés para los humanos (por ejemplo, maximizar la puntuación de un juego) [19c] . Se espera que este enfoque conduzca a soluciones más generalizables y robustas para problemas de alto nivel porque aprender con objetivos de bajo nivel podría llevar a un agente a aprender también un comportamiento autodirigido y autocorrector útil en situaciones no estándar o peligrosas con cero información sobre ellos efectivamente proporcionada por el objetivo de alto nivel. La necesidad de adaptarse / sobrevivir proporciona objetivos de optimización para que los organismos guíen la autoorganización y el aprendizaje / evolución [20a] [20b] , y algunos organismos pueden establecer objetivos de alto nivel por sí mismos después de ser entrenados / evolucionados para satisfacer objetivos de bajo nivel. . Es muy posible que algún conjunto de objetivos universales de bajo nivel se derive de algunas ecuaciones que rigen el flujo de energía e información [21a] , de modo que la optimización con esos objetivos [sección "direcciones posibles"] podría conducir a la inteligencia de las computadoras en Una forma análoga de cómo la evolución del Universo gobernada por las leyes de la física conduce a la inteligencia de los organismos [21b] .


Si bien la resolución de problemas de alto nivel en entornos simulados como Go tuvo éxito, la resolución de problemas de bajo nivel como la visión y la robótica aún no ha tenido éxito. Los humanos no pueden aprender a jugar Go sin primero aprender a discernir el tablero y colocar piedras. Las computadoras pueden resolver algunos problemas de alto nivel sin la capacidad de resolver los de bajo nivel cuando los problemas de alto nivel son resueltos por los subproblemas de bajo nivel por los humanos [22a] . Los problemas de bajo nivel son más complejos desde el punto de vista computacional para humanos y computadoras, aunque no necesariamente más complejos como problemas matemáticos o de ingeniería [22b] . Los problemas de bajo nivel son un camino hacia el razonamiento de sentido común, es decir, estimar la plausibilidad de una hipótesis arbitraria a partir de observaciones obtenidas o imaginadas y de todo el conocimiento previamente adquirido, que es necesario para que una máquina se adapte a un entorno arbitrario y resuelva un arbitrario problema de alto nivel en ese entorno [22d] .


obstáculos


El primer obstáculo más grande para las aplicaciones en los entornos del mundo real en comparación con los simulados parece ser los objetivos poco restringidos para la optimización en el aprendizaje del modelo de entorno [23a] . Cualquier modelo suficientemente complejo entrenado con un objetivo insuficientemente limitado explotará cualquier patrón encontrado en los datos de entrenamiento que relacione la entrada con las variables objetivo, pero las correlaciones espurias no necesariamente se generalizarán a los datos de prueba [sección "progreso"] [23b] [23c] [23d] . Incluso miles de millones de ejemplos no limitan suficientemente la optimización y no conducen a mayores ganancias de rendimiento en el reconocimiento de imágenes [24a] [24b] . Los agentes encuentran formas sorprendentes de explotar entornos simulados para maximizar los objetivos que no están lo suficientemente limitados para evitar exploits [25a] [25b] .


Una forma de restringir la optimización lo suficiente como para evitar soluciones no generalizables y no robustas es con datos más informativos para el entrenamiento, por ejemplo, utilizando la física del mundo real o la dinámica del mundo social como fuentes de señal en lugar de entornos simulados con agentes artificiales o entornos físicos restringidos sin agentes adversos: estos últimos no son representativos de los casos esquimales que debe enfrentar un agente en el mundo real / social sin restricciones [26a] . Otra forma es un objetivo más complejo para la optimización, por ejemplo, aprender a predecir no solo estadísticas de interés, como recompensas acumulativas futuras condicionalmente en las próximas acciones del agente, sino también dinámica, es decir, algunas propiedades futuras arbitrarias del entorno condicionalmente en algunos eventos futuros hipotéticos arbitrarios incluidas las siguientes acciones del agente [26b] [26c] [26d] [26e] . Los estados y las recompensas corresponden a los resúmenes estadísticos del agente para las interacciones con el entorno, mientras que la dinámica corresponde al conocimiento del agente sobre cómo funciona el entorno [27a] [27b] . El progreso del agente en aprender a predecir la dinámica del entorno [sección "direcciones posibles"] [28a] [28b] [28c] así como el progreso del agente en la creación de opciones para influir en él [sección "direcciones posibles"] [28d] [28e] [ 28f] podría ser el tipo más poderoso de motivación intrínseca del agente y podría ser la forma más eficiente de restringir la optimización.


El segundo obstáculo más grande parece ser una enorme brecha entre la complejidad de los entornos simulados disponibles para las computadoras actuales y la complejidad de los entornos del mundo real disponibles para los robots actuales, de modo que un agente capacitado en un entorno simulado no pueda transferirse a un robot en un entorno real. entorno mundial con un rendimiento aceptable y robustez [29] . El equipo de Boston Dynamics nunca utilizó el aprendizaje automático para controlar sus robots: utilizan solucionadores en tiempo real de ecuaciones diferenciales para calcular la dinámica y el control óptimo para modelos de robots y entornos que no se aprenden de los datos sino que se especifican manualmente [30] . Los investigadores del MIT no utilizaron el aprendizaje automático para controlar su robot en DARPA Robotics Challenge 2015, y su robot fue el único robot que no cayó ni necesitó asistencia física de los humanos [31a] . Es posible que un evento estadístico no pueda aprender un evento de cola [31b] , es decir, al formar un hiperplano de separación de ese modelo y usarlo como un límite de decisión para una posible acción, y puede requerir algunas formas de inferencia no estadística, es decir, mediante la inducción un modelo lógico / teoría para el evento, extrayendo hipótesis de él y verificándolas en experimentos. Por lo tanto, no solo las estadísticas sino la dinámica de los fenómenos podrían tener que calcularse; el modelo podría tener que ser programado o entrenado para simular la dinámica de los fenómenos [31c] .


Es muy posible que la única forma de entrenar / evolucionar agentes con inteligencia suficiente para problemas difíciles en el mundo real (como la robótica) y en el mundo social (como la comprensión del lenguaje natural) sea:
(1) entrenar / evolucionar agentes en entornos que proporcionan tantas restricciones para la optimización como el mundo real y social (es decir, los agentes podrían ser robots que operan en el mundo real junto con los humanos);
(2) entrenar / desarrollar agentes en problemas que proporcionan tantas restricciones para la optimización como los problemas más difíciles resueltos por organismos en el mundo real (es decir, los agentes podrían tener que aprender a sobrevivir como robots en el mundo real sin ninguna ayuda directa de los humanos) y resuelto por los humanos en el mundo social (es decir, los agentes podrían tener que aprender a alcanzar objetivos en el mundo real utilizando la comunicación con los humanos como única herramienta).


progreso


Podría decirse que durante el período de renacimiento de Deep Learning no ha habido progreso en problemas del mundo real, como la robótica y la comprensión del lenguaje, casi tan importantes como en los juegos fijos que se ejecutan en entornos simulados.


Opiniones sobre el progreso de la investigación de IA de algunos de los investigadores más realistas:


Michael I. Jordan [32a] [32b] [32c]
Rodney Brooks [33a] [33b]
Philip Piekniewski [34a] [34b]
Francois Chollet [35a] [35b]
John Langford [36a] [36b]
Alex Irpan [37]


Los métodos de Deep Learning son muy poco sólidos en tareas de comprensión de imágenes [documentos sobre generalización y ejemplos adversos a continuación] [38a] [38b] [38c] [38d] [38e] [38f] .
Los métodos de aprendizaje profundo ni siquiera han estado cerca de reemplazar a los radiólogos [39a] [39b] [39c] [39d] .
Los métodos de aprendizaje profundo son muy poco sólidos en las tareas de comprensión de texto [documentos sobre generalización y ejemplos adversos a continuación] [40a] [40b] .
Los métodos de aprendizaje profundo no pueden pasar los primeros niveles del juego más difícil de Atari [41] .


"ObjectNet: un conjunto de datos controlados por sesgos a gran escala para superar los límites de los modelos de reconocimiento de objetos"
"La aproximación de CNN con modelos de bolsa de características locales funciona sorprendentemente bien en ImageNet"
"Medición de la tendencia de las CNN a aprender regularidades estadísticas superficiales"
"La invarianza excesiva provoca una vulnerabilidad adversa"
"¿Los modelos generativos profundos saben lo que no saben?"
"¿Los clasificadores de ImageNet se generalizan a ImageNet?"
"¿Los clasificadores CIFAR-10 se generalizan a CIFAR-10?"
"Aprendizaje profundo para la segmentación de tumores cerebrales: impacto de la capacitación y las pruebas interinstitucionales"
"Las variables confusas pueden degradar el rendimiento de generalización de los modelos radiológicos de aprendizaje profundo"
"Ejemplos adversos naturales"
"Un ataque de píxeles para engañar a las redes neuronales profundas"
"Una rotación y un sufijo de traducción: engañar a las CNN con transformaciones simples"
"Ejemplos semánticos adversarios"
"¿Por qué las redes convolucionales profundas se generalizan de manera tan pobre a las transformaciones de imágenes pequeñas?"
"El elefante en la habitación"
"Golpea (con) una pose: las redes neuronales son fácilmente engañadas por extrañas poses de objetos familiares"
"Disparadores adversos universales para atacar y analizar PNL"
"Reglas adversarias semánticamente equivalentes para depurar modelos de PNL"
"Correcto por las razones equivocadas: Diagnóstico de la heurística sintáctica en la inferencia del lenguaje natural"
"Sondeo de la comprensión de la red neuronal de los argumentos del lenguaje natural"


direcciones posibles


Juergen schmidhuber


"Los datos se vuelven temporalmente interesantes por sí mismos para algún observador subjetivo que se mejora a sí mismo, pero es computacionalmente limitado, una vez que aprende a predecir o comprimir los datos de una mejor manera, haciéndolo subjetivamente más simple y más hermoso. La curiosidad es el deseo de crear o descubrir más datos regulares, no aleatorios, no arbitrarios, que son novedosos y sorprendentes, no en el sentido tradicional de Boltzmann y Shannon, sino en el sentido de que permite el progreso de la compresión porque aún no se conocía su regularidad. derivada de la belleza subjetiva o compresibilidad, es decir, la inclinación de la curva de aprendizaje. Motiva la exploración de bebés, matemáticos puros, compositores, artistas, bailarines, comediantes, usted mismo y sistemas artificiales ".

La inteligencia se puede ver como eficacia de compresión: cuanto más se pueden comprimir datos, más se puede entender. Ejemplo de aumento en la eficacia de la compresión: 1. observaciones sin procesar de órbitas planetarias 2. epiciclos ptolemaicos geocéntricos 3. elipses heliocéntricas 4. Mecánica newtoniana 5. relatividad general 6.? Bajo esta visión, la compresión de datos es comprensión, la mejora del compresor es aprendizaje, el progreso de la mejora es una recompensa intrínseca. Para aprender lo más rápido posible sobre una pieza de datos, uno debe disminuir lo más rápido posible el número de bits que necesita para comprimir esos datos. Si se puede elegir qué datos observar o crear, se debe interactuar con el entorno para obtener datos que maximicen la disminución de bits, el progreso de compresión, de todo lo que ya se conoce.


"El principio algorítmico simple detrás de la creatividad, el arte, la ciencia, la música, el humor"
"Teoría formal de la diversión y la creatividad"


"Teoría formal de la creatividad y la diversión y la motivación intrínseca"
"Exploración activa, curiosidad artificial y lo que es interesante"


"Impulsado por el progreso de la compresión: un principio simple explica aspectos esenciales de la belleza subjetiva, novedad, sorpresa, interés, atención, curiosidad, creatividad, arte, ciencia, música, chistes"
"Teoría formal de la creatividad, la diversión y la motivación intrínseca"
"Minimax sin supervisión: curiosidad adversa, redes adversas generativas y minimización de la previsibilidad"
"Aprendizaje de refuerzo impulsado por la curiosidad para la planificación del movimiento en humanoides"
"¿Qué es interesante?"
"PowerPlay: formación de un solucionador de problemas cada vez más general mediante la búsqueda continua del problema más simple aún sin solución"


Alex Wissner-Gross


"El sistema inteligente necesita optimizar la entropía causal futura, o ponerlo en lenguaje simple, maximizar las opciones futuras disponibles. Lo que a su vez significa minimizar todas las situaciones desagradables con muy pocas opciones. Esto tiene sentido desde el punto de vista evolutivo, ya que es consistente con la capacidad de sobrevivir, es consistente con lo que vemos entre los humanos (recolectando riqueza y cubriendo múltiples resultados de cosas impredecibles) y genera un comportamiento razonable en varias situaciones de juego simples ".

"Una ecuación para la inteligencia"
"La física de la inteligencia general artificial"


"La inteligencia es real"
"La inteligencia confunde al inteligente"


"Fuerzas entrópicas causales"


Filip piekniewski


"Al resolver un problema más general de predicción física (para distinguirlo de la predicción estadística), la entrada y la etiqueta se equilibran por completo y el problema de la selección humana desaparece por completo. La etiqueta en tal caso es solo una versión desplazada en el tiempo de la entrada sin procesar señal. Más datos significa más señal, significa una mejor aproximación de la variedad de datos real. Y dado que esa variedad se originó en la realidad física (no, no ha sido muestreada de un conjunto de gaussianos independientes e idénticamente distribuidos), no es de extrañar que usar la física como paradigma de entrenamiento puede ayudar a desentrañarlo correctamente. Además, la adición de parámetros debe equilibrarse agregando más restricciones (más señal de entrenamiento). De esa manera, deberíamos poder construir un sistema muy complejo con miles de millones de parámetros (memorias ) pero opera en un principio muy simple y poderoso. La complejidad de la señal real y la riqueza de los datos de entrenamiento de alta dimensión pueden evitar que se encuentre "barato" soluciones ricas. Pero el costo que tenemos que pagar es que tendremos que resolver una tarea más general y compleja, que puede no traducirse fácil y directamente a algo de importancia práctica, al menos al instante ".

"Modelo de visión predictiva: una forma diferente de hacer un aprendizaje profundo"


"Reiniciando AI - Postulados"
"La inteligencia confunde al inteligente"
"La inteligencia es real"
"AI y la falacia lúdica"
"La peculiar percepción del problema de la percepción"
"Estadística y dinámica"
"Reactivo contra IA predictiva"
"Inteligencia del monte"
"Aprender física es el camino a seguir"
"Visión predictiva en pocas palabras"


"Visión artificial de sentido común"


"Aprendizaje no supervisado de video continuo en una red recurrente predictiva escalable"
"Principios fundamentales de la computación cortical: aprendizaje no supervisado con predicción, compresión y retroalimentación"


Todd hylton


"El problema principal en la informática de hoy es que las computadoras no pueden organizarse por sí mismas: billones de grados de libertad haciendo lo mismo una y otra vez, capacidades de IA rudimentarias de enfoque limitado. Nuestro enfoque mecanicista para el problema de la IA no es adecuado para problemas complejos del mundo real : las máquinas son la suma de sus partes y están desconectadas del mundo, excepto a través de nosotros, el mundo no es una máquina. La termodinámica impulsa la evolución de todo. La evolución termodinámica es el concepto unificador que falta en los sistemas informáticos. La evolución termodinámica supone que toda organización espontáneamente surge para usar fuentes de energía libre en el universo y que hay competencia para esta energía. La evolución termodinámica es la segunda ley de la termodinámica, excepto que agrega la idea de que para que la entropía aumente, debe surgir una organización que lo haga posible. acceder a la energía libre. La primera ley de la termodinámica implica que hay competencia por la energía ".

"Computación termodinámica"
"Computación termodinámica"
"Sobre termodinámica y el futuro de la informática"
"¿Es el universo un producto de la evolución termodinámica?"
Taller de computación termodinámica


"La inteligencia no es artificial"
"De hombres y máquinas"


"Red neuronal termodinámica"


Susanne todavía


"Todos los sistemas realizan cálculos mediante la respuesta a su entorno. En particular, los sistemas vivos calculan, en una variedad de escalas de longitud y tiempo, las expectativas futuras basadas en su experiencia previa. La mayoría de los cálculos biológicos es fundamentalmente un proceso de no equilibrio, porque La preponderancia de la maquinaria biológica en su funcionamiento natural está lejos del equilibrio termodinámico. Los sistemas físicos evolucionan a través de una secuencia de estímulos de entrada que conducen al sistema fuera del equilibrio y luego se relajan en un baño termal ".

"Procesamiento óptimo de la información"
"Procesamiento óptimo de la información: disipación e información irrelevante"
"Límites termodinámicos del procesamiento de la información"


"La termodinámica de la predicción"
"Un enfoque teórico de la información para el aprendizaje por refuerzo basado en la curiosidad"
"Enfoque teórico de la información para el aprendizaje interactivo"


Karl Friston


"El principio de energía libre parece un intento de unificar la percepción, la cognición, la homeostasis y la acción. La energía libre es un concepto matemático que representa el fracaso de algunas cosas para que coincidan con otras que se supone que predicen. El cerebro trata de minimizar Su energía libre con respecto al mundo, es decir, minimizar la diferencia entre sus modelos y la realidad. A veces lo hace actualizando sus modelos del mundo. Otras veces lo hace cambiando el mundo para que coincida mejor con sus modelos. La percepción y la cognición son ambos intentos de crear modelos precisos que coincidan con el mundo, minimizando así la energía libre. La homeostasis y la acción son intentos de hacer que la realidad coincida con los modelos mentales. La acción trata de lograr que el estado externo del organismo coincida con un modelo mental. La homeostasis trata de lograr que el organismo interno estado para que coincida con un modelo mental. Dado que incluso las bacterias están haciendo algo parecido a la homeostasis, toda la vida comparte el principio de ser minimizadores de energía libre. Así que la vida no es doi ng cuatro cosas: percibir, pensar, actuar y mantener la homeostasis. Realmente solo está haciendo una cosa: minimizar la energía libre, de cuatro maneras diferentes, con la forma particular en que implementa esto en cualquier situación dependiendo de las oportunidades de minimización de energía libre que sean más convenientes ".

"Principio de energía libre"
"Energía libre e inferencia activa"
"Inferencia activa y curiosidad artificial"
"Inferencia activa y curiosidad artificial"
"Incertidumbre e inferencia activa"


introducción a la minimización de energía libre
tutorial sobre inferencia activa
tutorial sobre energía libre y curiosidad
implementación


"El principio de energía libre: ¿una teoría cerebral unificada?"
"Exploración, novedad, sorpresa y minimización de energía gratuita"
"Acción y comportamiento: una formulación de energía libre"
"Mecanismos computacionales de curiosidad y exploración dirigida a objetivos"
"Expandiendo el panorama de inferencia activa: más motivaciones intrínsecas en el circuito de percepción-acción"


palabras de cierre


La solución de muchos problemas en ciencia / ingeniería podría no requerir la inteligencia de la computadora descrita anteriormente, si las computadoras continuarán siendo programadas para resolver problemas no estándar por parte de los humanos como lo es hoy. Pero algunos problemas muy importantes (y más publicitados), como la robótica (autoconducción verdaderamente ilimitada) y la comprensión del lenguaje (asistente verdaderamente personal) podrían quedar sin resolver sin dicha inteligencia.


versiones anteriores de este artículo

Source: https://habr.com/ru/post/es436458/


All Articles