Não podemos confiar nos sistemas de IA construídos apenas com aprendizado profundo



Este texto não é resultado de pesquisa científica, mas uma das muitas opiniões sobre o nosso desenvolvimento tecnológico imediato. E ao mesmo tempo um convite para a discussão.

Gary Marcus, professor da Universidade de Nova York, está convencido de que a aprendizagem profunda desempenha um papel importante no desenvolvimento da IA. Mas ele também acredita que o entusiasmo excessivo por essa técnica pode levar ao descrédito.

Em seu livro, Reiniciando a IA: construindo inteligência artificial, podemos confiar em Marcus, um neurologista que treinou sua carreira em pesquisas de ponta em IA, abordando questões técnicas e éticas. Do ponto de vista da tecnologia, o aprendizado profundo pode imitar com êxito a solução de tarefas de percepção que nosso cérebro executa: por exemplo, reconhecimento de imagens ou fala. Mas, para resolver outras tarefas, como entender conversas ou determinar relacionamentos causais, o aprendizado profundo não é bom. Para criar máquinas inteligentes mais avançadas que possam resolver uma ampla gama de tarefas - geralmente chamadas de inteligência artificial geral - o aprendizado profundo deve ser combinado com outras técnicas.

Se o sistema de IA realmente não entender suas tarefas ou o mundo ao seu redor, isso poderá levar a consequências perigosas. Mesmo as menores mudanças inesperadas no ambiente do sistema podem levar a seu comportamento incorreto. Já existem muitos exemplos: determinantes de expressões inapropriadas fáceis de enganar; sistemas de busca de emprego que discriminam constantemente; veículos não tripulados que entram em acidentes e às vezes matam um motorista ou um pedestre. A criação da inteligência artificial geral não é apenas um problema de pesquisa interessante, possui muitas aplicações completamente práticas.

Em seu livro, Marcus e seu co-autor Ernest Davis propuseram um caminho diferente. Eles acreditam que ainda estamos longe de criar uma IA comum, mas têm certeza de que mais cedo ou mais tarde será possível criá-la.

Por que precisamos de uma IA comum? Versões especializadas já foram criadas e trazem muitos benefícios.

É verdade que os benefícios serão ainda maiores. Mas há muitas tarefas que a IA especializada simplesmente não pode resolver. Por exemplo, entender a fala comum ou a ajuda geral no mundo virtual ou um robô que ajuda na limpeza e culinária. Essas tarefas estão além dos recursos da IA ​​especializada. Outra questão prática interessante: é possível criar um carro drone seguro usando uma IA especializada? A experiência mostra que essa IA ainda tem muitos problemas de comportamento em situações anormais, mesmo ao dirigir, o que complica bastante a situação.

Acho que todos nós gostaríamos de obter uma IA que possa nos ajudar a fazer novas descobertas em larga escala na medicina. Não está claro se as tecnologias atuais são adequadas para isso, porque a biologia é um campo complexo. É preciso estar preparado para ler muitos livros. Os cientistas entendem as relações de causa-efeito na interação de redes e moléculas, podem desenvolver teorias sobre planetas e assim por diante. No entanto, com IA especializada, não podemos criar máquinas capazes de tais descobertas. E com a IA comum, poderíamos revolucionar a ciência, a tecnologia e a medicina. Na minha opinião, é muito importante continuar trabalhando em uma IA comum.

Soa como "geral" para significar IA forte?

Dizendo "geral", quero dizer que a IA será capaz de ponderar e resolver de forma independente novos problemas em tempo real. Ao contrário, digamos, Guo, em que o problema não mudou nos últimos 2000 anos.

A IA geral deve ser capaz de tomar decisões tanto na política quanto na medicina. Este é um análogo da capacidade humana; qualquer pessoa sã pode fazer muito. Você pega estudantes inexperientes e depois de alguns dias os força a trabalhar em quase tudo, começando com a tarefa legal e terminando com a médica. Isso se deve ao fato de que eles têm uma compreensão comum do mundo e são capazes de ler e, portanto, podem contribuir para uma ampla gama de atividades.

A relação entre esse intelecto e um forte é que um intelecto não forte provavelmente não será capaz de resolver problemas comuns. Para criar algo confiável o suficiente para trabalhar com um mundo em constante mudança, você pode precisar pelo menos se aproximar da inteligência comum.

Mas agora estamos muito longe disso. O AlphaGo pode jogar perfeitamente em um tabuleiro de 19x19, mas precisa ser treinado novamente para jogar em um tabuleiro retangular. Ou use o sistema médio de aprendizado profundo: ele pode reconhecer um elefante se estiver bem iluminado e com a textura da pele visível. E se apenas a silhueta de um elefante estiver visível, o sistema provavelmente não será capaz de reconhecê-lo.

No seu livro, você menciona que o aprendizado profundo não é capaz de atingir os recursos da IA ​​geral, porque não é capaz de compreender profundamente.

Na ciência cognitiva, eles falam sobre a formação de vários modelos cognitivos. Estou sentado em um quarto de hotel e entendo que há um armário, há uma cama, há uma TV que é extraordinariamente suspensa. Conheço todos esses itens, não apenas os identifico. Eu também entendo como eles estão interconectados. Eu tenho idéias sobre o funcionamento do mundo. Eles não são perfeitos. Eles podem estar errados, mas são muito bons. E com base nelas, faço muitas conclusões, que se tornam um guia para minhas ações diárias.

O outro extremo é algo como o sistema de jogos Atari criado por DeepMind, no qual ele se lembrava do que precisava fazer quando via pixels em determinados lugares da tela. Se você obtiver dados suficientes, pode parecer que você tenha um entendimento, mas, na verdade, é muito superficial. A prova é que, se você mover objetos por três pixels, a IA será muito pior. A mudança está desconcertando ele. Este é o oposto do entendimento profundo.

Para resolver esse problema, você propõe retornar à IA clássica. Quais são as vantagens que precisamos tentar usar?

Existem várias vantagens.

Primeiro, a IA clássica é na verdade uma estrutura para a criação de modelos cognitivos do mundo, com base nos quais conclusões podem ser tiradas.

Em segundo lugar, a IA clássica é perfeitamente compatível com as regras. Agora, no campo da aprendizagem profunda, há uma estranha tendência quando os especialistas tentam evitar as regras. Eles querem fazer tudo em redes neurais e não fazer nada que se pareça com programação clássica. Mas há tarefas que foram resolvidas com calma dessa maneira e ninguém prestou atenção a ela. Por exemplo, construindo rotas no Google Maps.

De fato, precisamos das duas abordagens. O aprendizado de máquina permite que você aprenda bem com os dados, mas ajuda muito pouco na exibição da abstração que um programa de computador representa. A IA clássica funciona bem com abstrações, mas precisa ser totalmente programada manualmente, e há muito conhecimento no mundo para programar todas elas. Obviamente, precisamos combinar as duas abordagens.

Isso está relacionado ao capítulo em que você fala sobre o que podemos aprender da mente humana. E antes de tudo, sobre o conceito baseado na idéia mencionada acima de que nossa consciência consiste em muitos sistemas diferentes que funcionam de maneiras diferentes.

Eu acho que existe outra maneira de explicar isso: cada sistema cognitivo que temos realmente resolve problemas diferentes. Partes semelhantes da IA ​​devem ser projetadas para resolver vários problemas com características diferentes.

Agora, estamos tentando usar algumas tecnologias multifuncionais para resolver problemas radicalmente diferentes um do outro. Entender uma frase não é o mesmo que reconhecer um objeto. Mas as pessoas nos dois casos tentam usar o aprendizado profundo. Do ponto de vista cognitivo, essas são tarefas qualitativamente diferentes. Estou impressionado com o quão pouco a comunidade de especialistas em aprendizado profundo valoriza a IA clássica. Por que esperar uma bala de prata aparecer? É inatingível, e pesquisas infrutíferas não permitem compreender a complexidade da tarefa de criar IA.

Você também menciona que os sistemas de IA são necessários para entender as relações de causa-efeito. Você acha que o aprendizado profundo, a IA clássica ou algo completamente novo nos ajudará nisso?

Essa é outra área para a qual o aprendizado profundo não é muito adequado. Ele não explica as causas de alguns eventos, mas calcula a probabilidade de um evento sob determinadas condições.

Do que estamos falando? Você olha para certos cenários e entende por que isso acontece e o que pode acontecer se algumas circunstâncias mudarem. Posso olhar para o suporte em que a TV está instalada e imaginar que, se eu cortar uma das pernas dela, o suporte se vira e a TV cai. Este é um relacionamento causal.

A IA clássica nos fornece algumas ferramentas para isso. Ele pode imaginar, por exemplo, o que é apoio e o que é queda. Mas não vou elogiar. O problema é que a IA clássica depende, em grande parte, da integridade das informações sobre o que está acontecendo, mas concluí apenas olhando o estande. De alguma forma, posso generalizar, imaginar partes do estande que não são visíveis para mim. Ainda não temos ferramentas para implementar essa propriedade.

Você também diz que as pessoas têm conhecimento inato. Como isso pode ser implementado na IA?

No momento do nascimento, nosso cérebro já é um sistema cuidadosamente pensado. Não é fixo, a natureza criou o primeiro rascunho. E então o aprendizado nos ajuda a revisar esse rascunho ao longo de nossas vidas.

Um rascunho do cérebro já possui certas capacidades. Um bode recém-nascido em poucas horas é capaz de descer com precisão a encosta da montanha. Obviamente, ele já tem uma compreensão do espaço tridimensional, seu corpo e a relação entre eles. Sistema muito complicado.

É em parte por isso que acho que precisamos de híbridos. É difícil imaginar como você pode criar um robô que funcione bem no mundo sem conhecimentos semelhantes, por onde começar, em vez de começar do zero e aprender com uma longa e vasta experiência.

Para os seres humanos, nosso conhecimento inato vem do nosso genoma, que evoluiu ao longo do tempo. E com os sistemas de IA, temos que seguir o outro caminho. Em parte, essas podem ser as regras para a construção de nossos algoritmos. Em parte, essas podem ser regras para criar estruturas de dados que esses algoritmos manipulam. E, em parte, pode ser o conhecimento de que investiremos diretamente em máquinas.

Curiosamente, no livro você traz a idéia de confiança e a criação de sistemas de confiança. Por que você escolheu esse critério?

Acredito que hoje tudo isso é um jogo de bola. Parece-me que estamos vivendo um momento estranho na história, confiando amplamente em software que não é confiável. Eu acho que as ansiedades inerentes de hoje não durarão para sempre. Em cem anos, a IA justificará nossa confiança, e talvez até mais cedo.

Mas hoje, a IA é perigosa. Não no sentido que Elon Musk teme, mas no fato de que os sistemas de entrevistas de emprego discriminam as mulheres, independentemente do que os programadores fazem, porque suas ferramentas são simples demais.

Eu gostaria que tivéssemos uma IA melhor. Eu não quero que o "inverno da inteligência artificial" comece, quando as pessoas percebem que a IA não está funcionando e são apenas perigosas, e não querem consertá-la.

De certa forma, seu livro realmente parece muito otimista. Você sugere que você pode criar uma IA confiável. Nós apenas precisamos olhar em uma direção diferente.

É verdade que o livro é muito pessimista no curto prazo e muito otimista no longo prazo. Acreditamos que todos os problemas descritos por nós podem ser resolvidos se examinarmos mais amplamente quais devem ser as respostas corretas. E achamos que, se isso acontecer, o mundo se tornará melhor.

Source: https://habr.com/ru/post/pt471978/


All Articles