Os algoritmos de aprendizado de máquina ainda não entendem a realidade da maneira como as pessoas o fazem - às vezes com consequências desastrosasSobre o autor:
Melanie Mitchell é professora de ciência da computação na Portland State University e professora visitante no Santa Fe Institute. Seu livro, Artificial Intelligence: A Guide for Thinking People, será publicado em 2019 por Farrar, Straus e Giroux
Visitante da Artificial Intelligence Expo na África do Sul, setembro de 2018. Foto: Nic Bothma / EPA, via ShutterstockVocê provavelmente já ouviu falar que estamos no meio de uma revolução da IA. Dizem-nos que a inteligência das máquinas está progredindo a uma velocidade espantosa, contando com algoritmos de "aprendizado profundo" que usam grandes quantidades de dados para treinar programas complexos conhecidos como "redes neurais".
Os programas de hoje podem reconhecer rostos e gravar discursos. Temos programas para detectar fraudes financeiras sutis, para encontrar páginas da web relevantes em resposta a solicitações ambíguas, para estabelecer a rota ideal em quase qualquer lugar, esses programas derrotam os grandes mestres no xadrez e no Go e traduzem entre centenas de idiomas. Além disso, veículos não tripulados, diagnóstico automático de câncer, robôs de limpeza doméstica e até descobertas científicas automáticas nos são prometidas em breve e em qualquer lugar.
O fundador do Facebook, Mark Zuckerberg,
disse recentemente que nos próximos cinco a dez anos, a empresa desenvolverá a IA para "exceder o nível de uma pessoa em todos os sentidos básicos: visão, audição, linguagem e entendimento geral". Shane Legg, pesquisador chefe do DeepMind do Google,
prevê que "a IA ultrapassará o nível humano em meados da década de 2020".
Como uma pessoa que trabalha no campo da IA por várias décadas, testemunhei o fracasso de muitas dessas previsões. E tenho certeza de que as previsões mais recentes também não serão cumpridas. O problema de criar inteligência humana em máquinas permanece altamente subestimado. Atualmente, os sistemas de IA estão carentes da essência da inteligência humana:
entender as situações que estamos enfrentando, a capacidade de entender seu significado. O matemático e filósofo Gian-Carlo Rota fez a famosa pergunta: "Gostaria de saber se a IA será capaz de superar a barreira da compreensão". Para mim, essa ainda é a questão mais importante.
A falta de entendimento humano nas máquinas é enfatizada pelos problemas que surgiram recentemente nos fundamentos da IA moderna. Embora os programas modernos sejam muito mais impressionantes do que os sistemas há 20 a 30 anos, vários estudos mostram que os sistemas de aprendizado profundo demonstram insegurança de maneiras completamente desumanas.
Vou dar alguns exemplos.
“O homem nu precisa de um chapéu” [o homem nu precisa de um chapéu] - o programa de reconhecimento de fala no telefone reconhece essa frase como “O homem nu precisa de um chapéu” sob a orientação de um urso. A frase “eu coloco o porco na caneta” [eu coloco o porco na caneta] O Google Translate se traduz em francês como “eu coloco o porco na caneta” [Je mets le cochon dans le stylo].
Os programas que “lêem” documentos e respondem a perguntas sobre eles são
facilmente enganados se fragmentos de texto curtos e irrelevantes forem adicionados ao documento.
Da mesma forma, os programas que reconhecem rostos e objetos (o famoso triunfo do aprendizado profundo) falham se você alterar um pouco os dados de entrada com certos tipos de iluminação, filtragem de imagens e outras alterações que não afetem, no mínimo, a eficiência do reconhecimento humano de objetos .
Um estudo recente
mostrou que a adição de uma pequena quantidade de "ruído" a uma imagem facial interfere seriamente nos programas modernos de reconhecimento facial.
Outro estudo , humoristicamente chamado de "Elefante em um quarto", mostra que uma pequena imagem de um objeto estranho, como um elefante, no canto da imagem da sala de uma maneira estranha faz com que os sistemas de visão de máquina no aprendizado profundo classifiquem incorretamente outros objetos.
Além disso , os
programas que aprenderam a jogar com maestria um videogame ou jogo de tabuleiro específico no nível "sobre-humano" são completamente perdidos com a menor mudança de condições (mudar o plano de fundo na tela ou mudar a posição da "plataforma" virtual para bater na "bola").
Estes são apenas alguns exemplos que demonstram a falta de confiabilidade dos melhores programas de IA se a situação for ligeiramente diferente daquela em que eles treinaram. Os erros nesses sistemas variam de ridículos e inofensivos a potencialmente catastróficos. Por exemplo, imagine um sistema de segurança aeroportuária que não permita que você embarque em um voo porque seu rosto foi confundido com o rosto de um criminoso ou um veículo não tripulado que, devido a condições incomuns de iluminação, não percebeu que você estava saindo de um cruzamento.
Ainda mais alarmantes são as demonstrações recentes de vulnerabilidades de IA nos chamados exemplos "hostis". Neles, um hacker mal-intencionado pode fazer certas alterações nas imagens, sons ou textos que são invisíveis ou insignificantes para os seres humanos, mas pode levar a erros de IA potencialmente catastróficos.
A possibilidade de tais ataques é mostrada em quase todas as áreas da IA, incluindo visão computacional, processamento de imagens médicas, reconhecimento e processamento de fala. Numerosos estudos mostraram a facilidade com que hackers podem enganar sistemas ou objetos de reconhecimento facial com
mudanças escassas de imagem.
Adesivos invisíveis no sinal de trânsito Stop forçam o sistema de visão de máquina em um veículo não tripulado a levá-lo para "Take the road", e a
modificação do sinal sonoro que soa como música de fundo para uma pessoa diz ao sistema Siri ou Alexa para executar secretamente um determinado comando.
Essas possíveis vulnerabilidades ilustram por que o progresso atual da IA se baseia em uma barreira à compreensão. Qualquer pessoa que trabalhe com sistemas de IA sabe que, por trás de uma fachada semelhante à visão humana, habilidades de fala e reprodução, esses programas absolutamente
não entendem - de maneira humana - os dados de entrada que recebem para processamento e os resultados que produzem. A falta de tal entendimento torna esses programas suscetíveis a erros inesperados e ataques invisíveis.
O que será necessário para superar essa barreira para que as máquinas possam entender melhor as situações que enfrentam, em vez de depender de peças pequenas? Para encontrar a resposta, você precisa se voltar para o estudo do conhecimento humano.
Nosso próprio entendimento das situações que enfrentamos é baseado em “conceitos de senso comum” amplos e intuitivos sobre como o mundo funciona e os objetivos, motivos e comportamento provável de outros seres vivos, especialmente de outras pessoas. Além disso, nossa compreensão do mundo é baseada em nossas habilidades básicas
para generalizar o que sabemos, formar conceitos abstratos e fazer analogias - em suma, adaptar nossos conceitos de maneira flexível a novas situações. Por décadas, os pesquisadores experimentaram ensinar à IA o senso comum intuitivo e as habilidades humanas sustentáveis para generalizar, mas pouco progresso foi feito nessa questão muito difícil.
Programas de IA com falta de bom senso e outros aspectos-chave da compreensão humana são cada vez mais implantados em aplicativos do mundo real. Enquanto algumas pessoas se preocupam com a "superinteligência" da IA, o aspecto mais perigoso da IA é que confiamos demais e damos muita autonomia a esses sistemas sem estar totalmente ciente de suas limitações. Como observou o pesquisador Pedro Domingos em seu livro, “The Main Algorithm”:
“As pessoas temem que os computadores se tornem muito inteligentes e dominem o mundo, mas o verdadeiro problema é que eles são muito estúpidos e já o adotaram” .
A corrida de comercialização da IA exerceu enorme pressão sobre os pesquisadores para criar sistemas que funcionam "razoavelmente bem" em tarefas limitadas. Mas, em última análise, o objetivo de desenvolver uma IA
confiável exige um estudo mais profundo de nossas próprias habilidades notáveis e uma nova compreensão dos mecanismos cognitivos que nós mesmos usamos para entender de maneira confiável o mundo ao nosso redor. A superação da barreira para a compreensão da IA provavelmente dará um passo atrás - desde redes e conjuntos de dados cada vez maiores até as raízes da indústria como uma ciência interdisciplinar que estuda o problema científico mais complexo: a natureza da inteligência.