
Há cinco anos, os programadores da DeepMind, uma empresa de IA com sede em Londres, assistiram alegremente à IA aprender a jogar um jogo de arcade clássico por conta própria. Eles usaram a tecnologia da moda do aprendizado profundo (GO) para uma tarefa aparentemente estranha: dominar um jogo no
Breakout , fabricado pela Atari, no qual você precisa bater uma bola de uma parede de tijolos para que os tijolos desapareçam.
GO é auto-aprendizado para máquinas; você alimenta grandes quantidades de dados da IA e ela gradualmente começa a reconhecer padrões de maneira independente. Nesse caso, os dados eram o que estava acontecendo na tela - pixels grandes representavam tijolos, uma bola e uma raquete. No AI DeepMind, uma rede neural composta por algoritmos em camadas, nenhum conhecimento foi estabelecido sobre as regras do jogo Breakout, seus princípios de operação, objetivos e métodos do jogo. Os programadores simplesmente permitiam que a rede neural estudasse os resultados de cada ação, cada bola quicada. O que isso levará?
Acabou sendo uma habilidade impressionante. Nas primeiras tentativas, a IA saiu aleatoriamente. Depois de jogar várias centenas de vezes, ele começou a acertar a bola com precisão. No 600º jogo, a rede neural apresentou movimentos especializados usados por pessoas jogando Breakout, quando um jogador quebra um buraco nos tijolos e envia a bola para pular em cima do muro.
"Foi uma grande surpresa para nós", disse Demis Khasabis, diretor da DeepMind. "A estratégia fluiu do próprio sistema." A IA demonstrou a capacidade de pensamento anormalmente sutil, semelhante ao humano, para entender os conceitos internos subjacentes ao jogo. Como as redes neurais copiam aproximadamente a estrutura do cérebro humano, em teoria, em certo sentido, elas também devem copiar nosso estilo de pensar. Este momento parecia ser uma confirmação da teoria.
Então, no ano passado, os cientistas da Vicarious, uma empresa de pesquisa de IA com sede em São Francisco, ofereceram uma maneira interessante de testar a IA em condições do mundo real. Eles pegaram o tipo de IA que eles usaram no DeepMind e o treinaram para jogar Breakout. Ele fez muito bem. E então eles começaram a ajustar um pouco o layout do jogo. Eles levantam uma raquete ou adicionam uma área impenetrável no centro do campo.
Um jogador humano poderia se adaptar rapidamente a essas mudanças; mas a rede neural não podia. A IA louca, ao que parece, só poderia jogar Breakout do tipo que ele estudou por centenas de tentativas. Ele não digeriu nada de novo.
"As pessoas não podem apenas reconhecer padrões", diz Dilip George, especialista em TI, um dos fundadores da Vicarious. - Ainda estamos criando modelos do que vemos. E esses modelos causais - conectamos causa e efeito. ” As pessoas se envolvem no raciocínio, tiram conclusões lógicas sobre o mundo ao seu redor; temos uma base de conhecimento do senso comum que nos ajuda a entender novas situações. Quando vemos o Breakout, um pouco diferente daquele que acabamos de jogar, percebemos que provavelmente terá regras e objetivos semelhantes. A rede neural não entendeu nada sobre o Breakout. Ela só é capaz de seguir padrões. Quando o padrão mudou, ela ficou desamparada.
GO é o rei da IA. Nos seis anos em que estourou no mainstream, tornou-se a principal maneira de ensinar às máquinas como perceber e sentir o mundo ao seu redor. Ela está por trás do reconhecimento de voz de Alexa, dos carros robóticos de Waymo, das traduções instantâneas do Google. O Uber é, de certa forma, uma tarefa gigantesca de otimização e usa o Machine Learning (MO) para prever onde os passageiros precisarão de carros. O Baidu, um gigante da tecnologia chinês, tem 2.000 programadores trabalhando em redes neurais. Durante anos, parecia que o GO só melhoraria e, inexoravelmente, daria à luz uma máquina com inteligência flexível e rápida para combinar com uma pessoa.
No entanto, alguns hereges afirmam que a defesa civil encosta no muro. Eles dizem que só isso nunca pode gerar inteligência artificial generalizada (IA), uma vez que uma mente verdadeiramente humana não é apenas reconhecimento de padrões. É hora de começarmos a trabalhar em como dar à IA o senso comum diário, a mente humana. Se isso não der certo, alertam eles, ainda vamos chocar com as limitações dos GOs, como sistemas de reconhecimento de padrões que podem ser facilmente enganados pela alteração de parte da entrada, como resultado do qual o modelo GO levará a tartaruga por uma arma. Mas se conseguirmos fazer isso, dizem eles, testemunharemos o crescimento explosivo de dispositivos mais seguros e úteis - robôs médicos movendo-se em uma casa desordenada, sistemas de reconhecimento falsos que não sofrem de falsos positivos, descobertas médicas feitas por máquinas que estudam as causas e consequências de doenças.
Mas como é o verdadeiro raciocínio em um carro? E se a sociedade civil não pode nos levar a isso, o que pode?

Gary Marcus é um professor de psicologia e neurologia de 48 anos da Universidade de Nova York com óculos de lente dupla e provavelmente o mais famoso apóstata ortodoxo de aprendizado profundo.
Pela primeira vez, Marcus se interessou por IA nas décadas de 1980 e 1990, quando as redes neurais estavam em fase experimental e, desde então, seus argumentos não mudaram. "Não é que eu esteja atrasado para a festa e quero vulgarizar tudo aqui", Marcus me disse quando nos encontramos em seu apartamento perto da Universidade de Nova York (ele e eu também somos amigos). "Assim que a explosão do GO ocorreu, eu disse: Pessoal, esta é a direção errada!"
Então a estratégia GO não difere da atual. Suponha que você precise de uma máquina para aprender a reconhecer margaridas. Primeiro, você precisa codificar os "neurônios" algorítmicos combinando-os em camadas como um sanduíche (ao usar várias camadas, o buter se torna mais espesso ou "mais profundo" - daí o aprendizado "profundo"). A primeira camada mostra a imagem da margarida e seus neurônios são ativados ou não, dependendo se essa imagem se assemelha a exemplos de margaridas, vistas anteriormente. O sinal passa para a próxima camada, onde o processo se repete. Como resultado, as camadas filtram os dados, passando um veredicto.
Primeiro, a rede neural está envolvida na adivinhação cega; ela começa a vida do zero. A linha inferior é organizar feedback útil. Cada vez que a IA não adivinha a margarida, no conjunto de neurônios, as conexões que levam à resposta errada são enfraquecidas. Se você adivinhar, as conexões são aprimoradas. Após um período de tempo suficiente e margaridas, a rede neural se torna mais precisa. Ela aprende a pegar certos padrões de margaridas, permitindo que ela identifique uma margarida a cada vez (em vez de girassóis ou ásteres). Ao longo dos anos, a idéia principal - começar com uma rede ingênua e treiná-la com repetições - foi aprimorada e parecia útil em quase todas as aplicações.
Mas Marcus não estava convencido. Do seu ponto de vista, uma lista limpa era um problema: supõe-se que as pessoas desenvolvam inteligência apenas observando o mundo à sua volta, o que significa que as máquinas também são capazes disso. Mas Marcus acredita que as pessoas não funcionam dessa maneira. Ele segue o caminho intelectual
de Noam Chomsky , que afirma que as pessoas nascem com uma predisposição para aprender e com um programa para aprender idiomas e interpretar o mundo físico.
Com todos os seus supostamente semelhantes ao cérebro, observa ele, as redes neurais parecem não funcionar como o cérebro humano. Por exemplo, eles precisam de muitos dados. Na maioria dos casos, cada rede requer milhares ou milhões de exemplos de treinamento. Pior, sempre que você precisar fazer a rede reconhecer um novo item, você precisará começar do zero. Uma rede neural treinada para reconhecer canários não é de todo útil para reconhecer cantos de pássaros ou fala humana.
"Não precisamos de grandes quantidades de dados para treinamento", diz Marcus. Seus filhos não precisam ver um milhão de carros antes que possam reconhecê-lo. O que é ainda melhor, eles sabem como generalizar: quando vêem um trator pela primeira vez, entendem que ele se parece com um carro. Eles também sabem como assumir o oposto. O Google Translate pode fornecer o equivalente em francês da frase em inglês "o copo foi movido e caiu da mesa". Mas ele não entende o significado das palavras e não pode dizer o que acontecerá se você não mexer o copo. As pessoas, como Marcus observa, compreendem não apenas as leis da gramática, mas também a lógica por trás das palavras. Você pode dar à criança o verbo inventado "dançar", e ele provavelmente irá adivinhar que no passado ele irá "dançar". Mas ele nunca tinha visto uma palavra assim. Ele não foi "treinado". Ele apenas sentiu intuitivamente a lógica da linguagem e pode aplicá-la a uma nova situação.
“Os sistemas GO não sabem como integrar o conhecimento abstrato”, diz Marcus, que fundou a empresa que criou a IA, que pode aprender com menos dados (e os vendeu para a Uber em 2016).
Este ano, Marcus publicou uma pré-impressão do trabalho no arXiv, onde afirma que, sem novas abordagens, o GO nunca poderá superar suas limitações atuais. Ele precisa de um avanço - regras internas ou complementares que ajudem a IA a raciocinar sobre o mundo.