Progresso e hype na pesquisa ai

O maior problema da IA ​​não é que seja estúpido, mas falta de definição de inteligência e, portanto, falta de medida para isso [1a] [1b] .


O teste de Turing não é uma boa medida, porque a gorila Koko não passaria, embora pudesse resolver mais problemas do que muitos seres humanos deficientes [2] .


É bem possível que as pessoas no futuro se perguntem por que as pessoas em 2019 pensaram que um agente treinado para jogar um jogo fixo em um ambiente simulado como o Go tivesse alguma inteligência [3a] [3b] [3c] [3d] [3e ] [3f] [3g] [3h] .


A inteligência é mais sobre aplicar / transferir conhecimentos antigos para novas tarefas (jogar o Quake Arena bom o suficiente sem nenhum treinamento após dominar o Doom) do que compactar a experiência do agente em heurísticas para prever uma pontuação do jogo e determinar a ação do agente em um determinado estado do jogo para maximizar a pontuação final ( jogando Quake Arena bom o suficiente depois de milhões de jogos depois de dominar Doom).


A inteligência humana diz respeito à capacidade de se adaptar ao mundo físico / social, e jogar Go é uma adaptação específica realizada pela inteligência humana, e desenvolver um algoritmo para aprender a jogar Go é mais eficiente e desenvolver uma teoria matemática de Go pode ser ainda mais desempenho.


Faz mais sentido comparar IAs com seres humanos não pela efetividade e eficiência dos produtos finais de adaptação (em jogos disputados entre uma IA e um humano), mas pela efetividade e eficiência do processo de adaptação (em jogos disputados entre um agente aprendido por máquina e um agente codificado por seres humanos após prática limitada) [5] .


Dota 2, StarCraft 2, Civilization 5 e provavelmente até GTA 5 podem ser resolvidos em um futuro não tão distante, mas a capacidade de jogar qualquer novo jogo em nível humano sem treinamento prévio seria muito mais significativa.


O segundo maior problema com a IA é a falta de robustez em uma longa sequência de situações sem precedentes (incluindo situações críticas na área da saúde [6a] , veículos autônomos, finanças) que, atualmente, não podem ser tratadas com precisão nem perto do aceitável [6b ] [6c] [6d] [6e] [6f] .


Modelos complexos exploram quaisquer padrões que relacionem entrada a variáveis ​​de saída, mas alguns padrões podem não ser válidos para casos mal cobertos por dados de treinamento [seção "progresso"] [7a] [7b] [7c] . > 99% dos aplicativos de assistência médica usam modelos simples, como regressão logística (o conhecimento do domínio é convertido em código para calcular estatísticas como recursos), a fim de evitar correlações espúrias e ganhar mais robustez nos valores discrepantes [8a] [8b] .


Para um agente em ambiente simulado como Go ou Quake, um verdadeiro modelo de ambiente é conhecido ou está disponível para que o agente possa gerar qualquer quantidade de dados de treinamento para aprender a agir de maneira ideal em qualquer situação. Descobrir correlações nesses dados não é inteligente - para problemas do mundo real, descobrir o modelo verdadeiro é a chave [9a] [9b] [9c] [9d] [9e] .


Para um organismo, o mundo real não é um jogo fixo com ambiente e regras conhecidas como Go ou Quake, mas um jogo com ambiente e regras amplamente desconhecidas e sempre em mudança [10] . Ele precisa se adaptar a mudanças inesperadas de ambiente e regras, incluindo mudanças causadas por adversários. Ele deve ser capaz de ampla autonomia, em vez de apenas a automação necessária para jogar algum jogo fixo.


Pode ser impossível ter veículos autônomos e robôs humanóides operando ao lado de humanos sem treiná-los para obter adaptabilidade em nível humano ao mundo real. Pode ser impossível ter assistentes pessoais substituindo humanos em aspectos-chave de suas vidas sem treiná-los para obter adaptabilidade em nível humano ao mundo social [11a] [11b] [11c] .


conhecimento vs inteligência


Conhecimento é alguma informação, como dados de observações ou experimentos, compactados e representados de alguma forma computável, como texto em linguagem natural, teoria matemática em linguagem semi-formal, programa em linguagem formal, pesos de redes neurais artificiais ou sinapses do cérebro .


O conhecimento é sobre ferramentas (teoria, programa, processo físico) para resolver problemas. Inteligência é sobre aplicar (transferir) e criar (aprender) conhecimento [12] . Existe um conhecimento sobre como resolver problemas (um programa para computadores, um livro didático para humanos) e, em seguida, existe um processo de aplicação do conhecimento (execução de programas por computadores, inferindo e executando instruções por humanos) e, em seguida, existe um processo de criação de conhecimento (inferência / aprendizagem indutiva a partir de observações e experimentos, raciocínio dedutivo a partir de teorias inferidas e modelos aprendidos - seja por computadores ou por seres humanos).


O Alpha (Go) Zero está muito mais próximo de um conhecimento sobre como resolver uma classe específica de problemas do que de um agente inteligente capaz de aplicar e criar conhecimento. É um algoritmo de pesquisa como o IBM Deep Blue, com heurísticas não codificadas, mas ajustadas durante as sessões do jogo. Ele não pode aplicar o conhecimento aprendido a outros problemas - mesmo jogando em um quadro Go menor. Ele não pode criar conhecimento abstrato útil para os seres humanos - nem mesmo uma simples compreensão das táticas do Go. Embora possa evocar uma visão útil em um ser humano, se jogar com táticas incomuns.


TD-Gammon de 1992 é considerado por muitos como o maior avanço na IA [13a] [13b] . O TD-Gammon usou o algoritmo TD (λ) com atualizações on-line de políticas. O autor da TD-Gammon usou sua variação para aprender a estratégia de apostas do IBM Watson [13c] . Alpha (Go) Zero também é aproximadamente uma variação de TD (λ) [13d] . O TD-Gammon usou a rede neural treinada pelo aprendizado da Diferença Temporal com valores-alvo calculados usando a pesquisa de árvores com profundidade não superior a três e usando resultados de jogos jogados até o fim como estimativas dos valores das folhas. O Alpha (Go) Zero usou uma rede neural profunda treinada pelo aprendizado de Diferenças Temporais com valores-alvo calculados usando a Pesquisa de Árvores Monte-Carlo com uma profundidade muito maior e usando estimativas de valores foliares e ações políticas calculadas pela rede sem jogar até o fim.


As diferenças qualitativas entre os problemas de Gamão e Go e entre TD-Gammon e Alpha (Go) Zero como soluções (escala de rede neural e número de jogos jogados sendo grandes diferenças) não são tão grandes quanto as diferenças qualitativas entre jogos de informação perfeita, como Go e jogos de informações imperfeitas, como o Poker (o AlphaZero não é aplicável ao Poker, o DeepStack não é aplicável ao Go and Chess).


O IBM Watson, o sistema de atendimento de perguntas mais avançado de longe em 2011, não é um agente inteligente. É um conhecimento representado como milhares de linhas de lógica codificada manualmente para pesquisar e manipular seqüências de palavras, além de gerar hipóteses e reunir evidências, além de algumas centenas de parâmetros sintonizados com regressão linear para pesar em diferentes conhecimentos para cada tipo de pergunta suportado e resposta [14a] [14b] [14c] . Não é muito diferente conceitualmente dos mecanismos de banco de dados que usam estatísticas de dados e valores-limite codificados para construir um plano para executar determinada consulta, selecionando e canalizando um subconjunto de algoritmos implementados para manipulação de dados.


O IBM Watson pode aplicar sua lógica para extração e integração de informações textuais (conhecimento interno) a novos textos (conhecimento externo). No entanto, ele não pode aplicar seu conhecimento a outros problemas que não sejam questões faciais limitadas, sem ser codificado por humanos. Ele pode ser codificado para procurar evidências em apoio a hipóteses em artigos sobre câncer, mas apenas usando a lógica codificada humana para interpretar textos (extrair e combinar palavras relevantes) e nunca além disso para interpretar textos por si só (modelo de aprendizado do mundo e mapeamento de textos para simulações nesse modelo). A primeira abordagem para interpretar textos foi suficiente para o Jeopardy! [15] mas não é suficiente quando não há uma resposta simples e simples. Há uma enorme diferença entre tirar conclusões usando propriedades estatísticas de textos e propriedades estatísticas de fenômenos do mundo real estimadas com simulações no modelo aprendido desses fenômenos.


O IBM Watson não pode criar novo conhecimento - pode deduzir fatos simples de fontes de conhecimento (textos e bases de conhecimento) usando algoritmos codificados por humanos, mas não pode induzir uma teoria a partir das fontes e verificar sua verdade. O WatsonPaths coloca a hipótese de um gráfico causal usando a pesquisa de textos relevantes para o caso [16a] [16b], mas o encadeamento de inferência como uma abordagem do raciocínio não pode ser suficientemente robusto - as inferências precisam ser verificadas com simulações ou experimentos feitos por um cérebro.


o que é inteligência?


Os biólogos definem inteligência como a capacidade de encontrar soluções não-padrão para problemas não-padrão (em outras palavras, a capacidade de lidar com incógnitas desconhecidas, em oposição a conhecidos e desconhecidos) e distinguir essa característica dos reflexos / instintos definidos como soluções padrão para problemas padrão [17a] [17b] . Jogar o Go não pode ser considerado um problema não padrão para o AlphaGo depois de jogar milhões de jogos. A detecção de novos malwares pode ser considerada um problema não padrão, sem solução em nível humano até o momento.


A maioria dos pesquisadores se concentra em uma abordagem de cima para baixo da inteligência com o treinamento de ponta a ponta de um modelo, ou seja, definindo um objetivo para problemas de alto nível (por exemplo, maximizando a probabilidade esperada de vitória) e esperando que um modelo aprenda a encontrar uma solução para o problema. subproblemas de baixo nível do problema original (por exemplo, Ko lutando em Go) [18a] . Essa abordagem funciona para problemas relativamente simples, como jogos fixos em ambientes simulados, mas requer uma quantidade enorme de episódios de treinamento (várias ordens de magnitude acima da quantidade que pode ser experimentada pelo agente no mundo real) e leva a soluções incapazes de generalização (modelo AlphaGo treinado na placa 19x19 é efetivamente inútil para a placa 9x9 sem reciclagem total). Os problemas mais difíceis de alto nível que podem ser resolvidos por humanos são abertos - eles não pesquisam no espaço fixo soluções possíveis ao contrário do AlphaGo [18b] . Sendo informados e guiados por observações e experimentos no mundo real, os humanos apresentam bons subproblemas, por exemplo, relatividade especial e geral.


Alguns pesquisadores [seção "direções possíveis"] se concentram em uma abordagem de baixo para cima, ou seja, começando com alguns objetivos de baixo nível (por exemplo, maximizando a capacidade de prever a dinâmica do ambiente, incluindo o efeito das ações do agente no ambiente) e adicionando alguns de nível superior objetivos para a motivação intrínseca do agente (por exemplo, maximizando o progresso da aprendizagem ou maximizando as opções disponíveis) [19a] [19b] , e somente então adicionando objetivos de alto nível para um problema de interesse para os seres humanos (por exemplo, maximizando a pontuação do jogo) [19c] . Espera-se que essa abordagem leve a soluções mais generalizáveis ​​e robustas para problemas de alto nível, porque o aprendizado com objetivos de baixo nível pode levar um agente a aprender também o comportamento auto-direcionador e auto-corretivo, útil em situações não padronizadas ou perigosas com zero informações sobre eles efetivamente fornecidas pelo objetivo de alto nível. A necessidade de adaptação / sobrevivência fornece objetivos de otimização para os organismos orientarem a auto-organização e o aprendizado / evolução [20a] [20b] , e alguns organismos podem estabelecer objetivos de alto nível para si mesmos após serem treinados / evoluídos para satisfazer objetivos de baixo nível . É bem possível que algum conjunto de objetivos universais de baixo nível possa ser derivado de algumas equações que governam o fluxo de energia e informação [21a] , de modo que a otimização com esses objetivos [seção "direções possíveis"] leve à inteligência dos computadores em uma maneira análoga de como a evolução do Universo governada pelas leis da física leva à inteligência dos organismos [21b] .


Embora a solução de problemas de alto nível em ambientes simulados como o Go tenha tido sucesso, a solução de problemas de baixo nível, como visão e robótica, ainda não teve sucesso. Os humanos não podem aprender a jogar Go sem antes aprender a discernir o tabuleiro e a colocar pedras. Os computadores podem resolver alguns problemas de alto nível sem a capacidade de resolver problemas de baixo nível quando problemas de alto nível são abstraídos de subproblemas de baixo nível por seres humanos [22a] . São problemas de baixo nível que são mais complexos computacionalmente para humanos e computadores, embora não necessariamente mais complexos como problemas matemáticos ou de engenharia [22b] . São problemas de baixo nível que são um caminho para o raciocínio de senso comum, ou seja, estimar a plausibilidade de uma hipótese arbitrária a partir de observações obtidas ou imaginadas e de todo o conhecimento adquirido anteriormente, que é necessário para uma máquina se adaptar a um ambiente arbitrário e resolver um problema arbitrário. problema de alto nível nesse ambiente [22d] .


obstáculos


O primeiro maior obstáculo às aplicações nos ambientes do mundo real, em oposição aos simulados, parece ser um objetivo pouco restritivo para otimização no aprendizado do modelo de ambiente [23a] . Qualquer modelo suficientemente complexo, treinado com um objetivo insuficientemente restrito, explorará qualquer padrão encontrado nos dados de treinamento que relacione a entrada às variáveis-alvo, mas correlações espúrias não serão generalizadas necessariamente para testar os dados [seção "progresso"] [23b] [23c] [23d] . Até bilhões de exemplos não restringem a otimização o suficiente e não levam a grandes ganhos de desempenho no reconhecimento de imagens [24a] [24b] . Os agentes encontram maneiras surpreendentes de explorar ambientes simulados para maximizar objetivos não suficientemente restritos para impedir explorações [25a] [25b] .


Uma maneira de restringir a otimização suficientemente a fim de evitar soluções não generalizáveis ​​e não robustas são dados mais informativos para treinamento, por exemplo, usando a física do mundo real ou a dinâmica do mundo social como fontes de sinal, em oposição a ambientes simulados. agentes artificiais ou ambientes físicos restritos sem agentes antagônicos - estes últimos não são representativos de casos extremos a serem enfrentados por um agente no mundo real / social irrestrito [26a] . Outra maneira é o objetivo mais complexo da otimização, por exemplo, aprender a prever não apenas estatísticas de interesse, como recompensas cumulativas futuras condicionalmente nas próximas ações do agente, mas também dinâmica, ou seja, algumas propriedades futuras arbitrárias do ambiente condicionalmente em alguns eventos futuros hipotéticos arbitrários incluindo as próximas ações do agente [26b] [26c] [26d] [26e] . Estados e recompensas correspondem aos resumos estatísticos do agente para interações com o ambiente, enquanto a dinâmica corresponde ao conhecimento do agente sobre como o ambiente funciona [27a] [27b] . O progresso do agente em aprender a prever a dinâmica do ambiente [seção "direções possíveis"] [28a] [28b] [28c] , bem como o progresso do agente na criação de opções para influenciá-lo [seção "direções possíveis"] [28d] [28e] [ 28f] podem ser os tipos mais poderosos de motivação intrínseca do agente e podem ser a maneira mais eficiente de restringir a otimização.


O segundo maior obstáculo parece ser uma enorme lacuna entre a complexidade dos ambientes simulados disponíveis para os computadores atuais e a complexidade dos ambientes do mundo real disponíveis para os robôs atuais, para que um agente treinado em um ambiente simulado não possa ser transferido para um robô de maneira real. ambiente mundial com desempenho e robustez aceitáveis [29] . A equipe do Boston Dynamics nunca usou o aprendizado de máquina para controlar seus robôs - eles usam solucionadores de equações diferenciais em tempo real para calcular a dinâmica e o controle ideal para modelos de robôs e ambientes que não são aprendidos com dados, mas especificados manualmente [30] . Os pesquisadores do MIT não usaram o aprendizado de máquina para controlar seu robô no DARPA Robotics Challenge 2015, e seu robô foi o único robô que não caiu ou precisou de assistência física de seres humanos [31a] . Um evento de cauda pode não ser aprendido por um modelo estatístico [31b] , ou seja, através da formação de um hiperplano de separação desse modelo e do uso dele como limite de decisão para uma possível ação, e pode exigir algumas formas de inferência não estatística, ou seja, induzindo um modelo / teoria lógica para o evento, retirando hipóteses e verificando-as em experimentos. Assim, não apenas as estatísticas, mas a dinâmica dos fenômenos podem precisar ser calculadas - o modelo pode ter que ser programado ou treinado para simular a dinâmica dos fenômenos [31c] .


É bem possível que a única maneira de treinar / desenvolver agentes com inteligência suficiente para problemas difíceis no mundo real (como a robótica) e no mundo social (como a compreensão da linguagem natural) possa vir a ser:
(1) treinar / desenvolver agentes em ambientes que forneçam tantas restrições à otimização quanto o mundo real e social (ou seja, os agentes podem ter que ser robôs operando no mundo real ao lado de humanos);
(2) treinar / evoluir agentes em problemas que fornecem tantas restrições à otimização quanto os problemas mais difíceis resolvidos por organismos no mundo real (ou seja, os agentes podem ter que aprender a sobreviver como robôs no mundo real sem a ajuda direta de seres humanos) e resolvidos por humanos no mundo social (ou seja, os agentes podem ter que aprender a alcançar objetivos no mundo real usando a comunicação com humanos como a única ferramenta).


progresso


Provavelmente, durante o período de renascimento do Deep Learning, não houve progresso em problemas do mundo real, como robótica e compreensão de idiomas, quase tão significativos quanto em jogos fixos em ambientes simulados.


Opiniões sobre o progresso da pesquisa em IA de alguns dos pesquisadores mais realistas:


Michael I. Jordan [32a] [32b] [32c]
Rodney Brooks [33a] [33b]
Philip Piekniewski [34a] [34b]
François Chollet [35a] [35b]
John Langford [36a] [36b]
Alex Irpan [37]


Os métodos de Deep Learning são muito pouco robustos nas tarefas de compreensão de imagens [documentos sobre generalização e exemplos contraditórios abaixo] [38a] [38b] [38c] [38d ] [38e] [38f] .
Os métodos de aprendizagem profunda nem chegaram perto de substituir os radiologistas [39a] [39b] [39c] [39d] .
Os métodos de aprendizado profundo não são muito robustos nas tarefas de compreensão de texto [documentos sobre generalização e exemplos contraditórios abaixo] [40a] [40b] .
Os métodos de aprendizado profundo não podem passar dos primeiros níveis do jogo mais difícil do Atari [41] .


"ObjectNet: um conjunto de dados controlado por viés em larga escala para ultrapassar os limites dos modelos de reconhecimento de objetos"
"Aproximando CNNs com modelos de bolsa com recursos locais funciona surpreendentemente bem no ImageNet"
"Medindo a tendência das CNNs de aprender regularidades estatísticas de superfície"
"Invariância excessiva causa vulnerabilidade adversa"
"Os modelos geradores profundos sabem o que não sabem?"
"Os classificadores ImageNet generalizam para ImageNet?"
"Os classificadores do CIFAR-10 generalizam para o CIFAR-10?"
"Aprendizado profundo para segmentação de tumores cerebrais: impacto do treinamento e testes entre instituições"
"Variáveis ​​confusas podem degradar o desempenho da generalização de modelos radiológicos de aprendizado profundo"
"Exemplos Adversários Naturais"
"Ataque de um pixel para enganar redes neurais profundas"
"Uma rotação e um sufixo de tradução: enganando CNNs com transformações simples"
"Exemplos Adversários Semânticos"
"Por que as redes convolucionais profundas generalizam tão mal as transformações de pequenas imagens?"
"O elefante no quarto"
"Greve (com) uma pose: redes neurais são facilmente enganadas por poses estranhas de objetos familiares"
"Disparadores Adversários Universais para Atacar e Analisar a PNL"
"Regras adversas semanticamente equivalentes para a depuração de modelos de PNL"
"Certo pelas razões erradas: diagnosticando heurísticas sintáticas na inferência de linguagem natural"
"Sondando a compreensão da rede neural dos argumentos da linguagem natural"


direções possíveis


Juergen schmidhuber


"Os dados se tornam temporariamente interessantes por si só para algum observador subjetivo auto-aperfeiçoador, mas limitado em termos computacionais, uma vez que ele aprende a prever ou compactar os dados de uma maneira melhor, tornando-os subjetivamente mais simples e mais bonitos. Curiosidade é o desejo de criar ou descobrir mais dados regulares, não aleatórios, não arbitrários, novos e surpreendentes, não no sentido tradicional de Boltzmann e Shannon, mas no sentido de permitir o progresso da compactação porque sua regularidade ainda não era conhecida.Esta unidade maximiza a interessante, a primeira derivado da beleza subjetiva ou da compressibilidade, ou seja, a inclinação da curva de aprendizado. Motiva a exploração de bebês, matemáticos puros, compositores, artistas, dançarinos, comediantes, você mesmo e sistemas artificiais ".

A inteligência pode ser vista como eficácia da compactação: quanto mais se pode compactar dados, mais se pode entender. Exemplo de aumento da eficácia da compressão: 1. observações brutas de órbitas planetárias 2. epiciclos ptolêmicos geocêntricos 3. elipses heliocêntricas 4. mecânica newtoniana 5. relatividade geral 6.? Sob essa visão, a compactação de dados é compreensível, a melhoria do compressor está aprendendo, o progresso da melhoria é uma recompensa intrínseca. Para aprender o mais rápido possível sobre um dado, deve-se diminuir o mais rápido possível o número de bits necessários para compactar esses dados. Se alguém pode escolher quais dados observar ou criar, deve interagir com o ambiente de forma a obter dados que maximizem a diminuição de bits - o progresso da compactação - de tudo que já é conhecido.


"O princípio algorítmico simples por trás da criatividade, arte, ciência, música, humor"
"Teoria formal da diversão e criatividade"


"Teoria formal da criatividade e diversão e motivação intrínseca"
"Exploração ativa, curiosidade artificial e o que é interessante"


"Impulsionado pelo progresso da compressão: um princípio simples explica aspectos essenciais da beleza subjetiva, novidade, surpresa, interesse, atenção, curiosidade, criatividade, arte, ciência, música e piadas"
"Teoria formal da criatividade, diversão e motivação intrínseca"
"Minimax não supervisionado: curiosidade adversa, redes adversas generativas e minimização de previsibilidade"
"Aprendizado de reforço orientado por curiosidade para planejamento de movimento em humanóides"
"O que é interessante?"
"PowerPlay: treinando um solucionador de problemas cada vez mais geral, procurando continuamente o problema mais simples e insolúvel"


Alex Wissner-Gross


"O sistema inteligente precisa otimizar a entropia causal futura ou, em linguagem simples, maximizar as opções futuras disponíveis. O que, por sua vez, significa minimizar todas as situações desagradáveis ​​com muito poucas opções. Isso faz sentido do ponto de vista evolutivo, pois é consistente. com a capacidade de sobreviver, é consistente com o que vemos entre os seres humanos (coletando riqueza e protegendo-se de múltiplos resultados de coisas imprevisíveis) e gera um comportamento razoável em várias situações simples de jogo ".

"Uma equação para inteligência"
"A física da inteligência geral artificial"


"Inteligência é real"
"Inteligência confunde o inteligente"


"Forças entrópicas causais"


Filip piekniewski


"Ao resolver um problema mais geral de previsão física (para diferenciá-lo da previsão estatística), a entrada e o rótulo ficam completamente equilibrados e o problema da seleção humana desaparece por completo. O rótulo, nesse caso, é apenas uma versão com desvio de tempo da entrada bruta. Mais dados significa mais sinal, significa melhor aproximação do coletor de dados real.E como esse coletor se originou na realidade física (não, não foi amostrado de um conjunto de gaussianos independentes e distribuídos de forma idêntica), não é de admirar que usar a física como paradigma do treinamento pode ajudar a desvendá-lo corretamente.Além disso, a adição de parâmetros deve ser equilibrada adicionando mais restrições (mais sinais de treinamento). Dessa forma, devemos ser capazes de construir um sistema muito complexo com bilhões de parâmetros (memórias ) ainda operando com um princípio muito simples e poderoso.A complexidade do sinal real e a riqueza de dados de treinamento de alta dimensão podem impedir que ele ache "barato", spu soluções sérias. Mas o custo que temos que pagar é que precisaremos resolver uma tarefa mais geral e complexa, que pode não se traduzir fácil e diretamente em algo de importância prática, nem instantaneamente, pelo menos ".

"Modelo de visão preditiva - uma maneira diferente de aprender profundamente"


"Reiniciando a IA - Postulados"
"Inteligência confunde o inteligente"
"A inteligência é real"
"IA e a falácia lúdica"
"A peculiar percepção do problema da percepção"
"Estatística e Dinâmica"
"Reativo versus IA preditiva"
"Mt. Inteligência"
"Aprender física é o caminho a seguir"
"Visão preditiva em poucas palavras"


"Visão de máquina de senso comum"


"Aprendizado não supervisionado de vídeo contínuo em uma rede recorrente preditiva escalável"
"Princípios fundamentais da computação cortical: aprendizado não supervisionado com previsão, compactação e feedback"


Todd hylton


"O principal problema da computação atual é que os computadores não podem se organizar: trilhões de graus de liberdade fazendo as mesmas coisas repetidamente, recursos rudimentares de IA com foco estreito. Nossa abordagem mecanicista do problema de IA não é adequada para problemas complexos do mundo real. : máquinas são a soma de suas partes e desconectadas do mundo, exceto através de nós, o mundo não é uma máquina. Termodinâmica impulsiona a evolução de tudo. Evolução termodinâmica é o conceito unificador e ausente em sistemas de computação. A evolução termodinâmica supõe que toda organização espontaneamente emerge para usar fontes de energia livre no universo e que exista concorrência por essa energia.A evolução termodinâmica é a segunda lei da termodinâmica, exceto que acrescenta a ideia de que, para que a entropia aumente, uma organização deve emergir, o que torna possível para acessar a energia livre. A primeira lei da termodinâmica implica que há concorrência por energia ".

"Computação termodinâmica"
"Computação termodinâmica"
"Sobre termodinâmica e o futuro da computação"
"O universo é um produto da evolução termodinâmica?"
Oficina de Computação Termodinâmica


"Inteligência não é artificial"
"De homens e máquinas"


"Rede neural termodinâmica"


Susanne ainda


"Todos os sistemas realizam cálculos por meio da resposta ao seu ambiente. Em particular, os sistemas vivos calculam, em uma variedade de escalas de comprimento e tempo, as expectativas futuras com base em sua experiência anterior. A maioria dos cálculos biológicos é fundamentalmente um processo sem equilíbrio, porque a preponderância da maquinaria biológica em sua operação natural é afastada do equilíbrio termodinâmico. Os sistemas físicos evoluem por meio de uma sequência de estímulos de entrada que levam o sistema ao desequilíbrio e são seguidos pelo relaxamento em um banho termal ".

"Processamento ideal de informações"
"Processamento ideal de informações: dissipação e informações irrelevantes"
"Limites termodinâmicos do processamento de informações"


"A termodinâmica da previsão"
"Uma abordagem teórica da informação para o aprendizado por reforço orientado pela curiosidade"
"Abordagem teórica da informação para a aprendizagem interativa"


Karl Friston


"O princípio da energia livre parece uma tentativa de unificar percepção, cognição, homeostase e ação. Energia livre é um conceito matemático que representa o fracasso de algumas coisas em corresponder a outras que deveriam prever. O cérebro tenta minimizar Sua energia livre em relação ao mundo, ou seja, minimiza a diferença entre seus modelos e a realidade. Às vezes, faz isso atualizando seus modelos de mundo. Outras vezes, faz isso mudando o mundo para melhor corresponder a seus modelos. Percepção e cognição são Ambas as tentativas de criar modelos precisos que combinam com o mundo, minimizando a energia livre.A homeostase e a ação são ambas tentativas de fazer a realidade corresponder aos modelos mentais.A ação tenta fazer com que o estado externo do organismo corresponda a um modelo mental.A homeostase tenta obter a integridade interna do organismo estado para corresponder a um modelo mental.Como até as bactérias estão fazendo algo semelhante à homeostase, toda a vida compartilha o princípio de serem minimizadores de energia livres. ng quatro coisas - perceber, pensar, agir e manter a homeostase. Realmente, está apenas fazendo uma coisa - minimizar a energia livre - de quatro maneiras diferentes - com a maneira específica de implementá-la em qualquer situação, dependendo de quais oportunidades de minimização de energia livre são mais convenientes ".

"Princípio da energia livre"
"Energia livre e inferência ativa"
"Inferência ativa e curiosidade artificial"
"Inferência ativa e curiosidade artificial"
"Incerteza e inferência ativa"


introdução à minimização de energia livre
tutorial sobre inferência ativa
tutorial sobre energia livre e curiosidade
implementação


"O princípio da energia livre: uma teoria unificada do cérebro?"
"Exploração, novidade, surpresa e minimização de energia livre"
"Ação e comportamento: uma formulação de energia livre"
"Mecanismos computacionais de curiosidade e exploração direcionada a objetivos"
"Expandindo o cenário de inferência ativa: motivações mais intrínsecas no ciclo de percepção e ação"


palavras finais


A solução de muitos problemas em ciências / engenharia pode não exigir a inteligência computacional descrita acima - se os computadores continuarem a ser programados para resolver problemas não-padrão pelos seres humanos, como é hoje. Mas alguns problemas muito importantes (e mais sensacionalistas), como robótica (autodireção verdadeiramente irrestrita) e entendimento da linguagem (assistente verdadeiramente pessoal) podem permanecer sem solução sem essa inteligência.


versões anteriores deste artigo

Source: https://habr.com/ru/post/pt436458/


All Articles