O principal problema da inteligência artificial é que ninguém entende completamente como ela funciona



No ano passado, um robomóvel estranho começou a dirigir pelas estradas do Condado de Monmouth, Nova Jersey. Este veículo experimental, desenvolvido pelos especialistas da Nvidia, não difere na aparência de outros carros autônomos de outros fabricantes, como Google, Tesla ou General Motors. Mas especialmente para este carro, um novo sistema de controle foi desenvolvido. Ela é autodidata e não depende das configurações especificadas na produção. Em vez disso, o robomóvel monitora as ações do motorista humano e aprende com ele.

Esta é uma maneira um pouco incomum de treinar um robomóvel. Por outro lado, poucas pessoas imaginam completamente como a máquina toma decisões. As informações dos sensores, radares e lidares entram na rede neural, onde esses dados são processados ​​com a alocação de regras claras para o controle do volante, freios e outros sistemas. Como resultado, verifica-se que as ações do robomóvel geralmente são semelhantes às ações de um motorista humano que caiu na mesma situação na estrada. Surge a pergunta - o carro pode tomar uma decisão estranha em um dos casos - por exemplo, colidir com uma árvore a toda velocidade ou ficar em um semáforo quando a luz verde estiver acesa?

Uma informação de processamento de rede neural pode ser comparada a uma caixa preta. Não, é claro, os especialistas imaginam o princípio do processamento de dados por uma rede neural em termos gerais. Mas o problema é que o autotreinamento não é um processo completamente pré-determinado; portanto, às vezes, resultados absolutamente inesperados podem ser esperados na saída. No centro de tudo está o aprendizado profundo, que já nos permitiu resolver uma série de problemas importantes, incluindo processamento de imagem, reconhecimento de fala e tradução. É possível que as redes neurais sejam capazes de diagnosticar doenças em um estágio inicial, tomar as decisões corretas ao negociar na bolsa e executar centenas de outras ações humanas importantes.

Mas primeiro você precisa encontrar maneiras de entender melhor o que está acontecendo na própria rede neural ao processar dados. Caso contrário, é difícil, se possível, prever os possíveis erros de sistemas com uma forma fraca de IA. E tais erros certamente serão. Esta é uma das razões pelas quais o carro da Nvidia ainda está sendo testado.

Uma pessoa agora aplica modelos matemáticos para facilitar a tarefa de escolher por si mesma - por exemplo, para determinar um tomador confiável de fundos ou para encontrar um funcionário com a experiência necessária para algum tipo de trabalho. Em geral, os modelos e processos matemáticos que os utilizam são relativamente simples e diretos. Porém, empresas militares e comerciais, os cientistas agora usam sistemas muito mais complexos, cujas "decisões" não se baseiam nos resultados de um ou dois modelos. O aprendizado profundo difere dos princípios usuais da operação do computador. Segundo Tommy Jaakol, professor do MIT, esse problema está se tornando cada vez mais relevante. “Faça o que fizer, tome uma decisão sobre o investimento, tente fazer um diagnóstico, escolha um ponto de ataque no campo de batalha, tudo isso não deve depender do método da caixa preta”, diz ele.

Isso é entendido não apenas pelos cientistas, mas também pelos funcionários. A partir do próximo verão, a União Europeia introduz novas regras para desenvolvedores e fornecedores de soluções automatizadas de sistemas de computador. Os representantes dessas empresas deverão explicar aos usuários como o sistema funciona e por quais decisões são tomadas. O problema é que isso pode não ser possível. Sim, é possível explicar os princípios básicos da operação de redes neurais sem problemas, mas poucos conseguem dizer exatamente o que acontece durante o processamento de informações complexas. Mesmo os criadores de tais sistemas não podem explicar tudo "de e para", uma vez que os processos que ocorrem na rede neural durante o processamento de informações são muito complexos.

Nunca antes um homem construiu máquinas cujo princípio operacional não é totalmente compreendido pelos próprios criadores e é muito diferente da maneira como as informações são usadas pela própria pessoa. Então, podemos esperar uma interação normal com máquinas cuja operação é imprevisível?


Pintura do artista Adam Ferriss com Google Deep Dream

Em 2015, a equipe de pesquisa do Hospital Mount Sinai de Nova York usou o aprendizado profundo para processar um banco de dados de registros de pacientes. O banco de dados incluía informações sobre milhares de pacientes com centenas de linhas de informações para cada pessoa, como resultados de testes, data da visita ao médico etc. Como resultado, apareceu o programa Deep Patient, que foi treinado no exemplo de registros de 700 mil pessoas. Os resultados que este programa mostrou foram extraordinariamente bons. Por exemplo, ela foi capaz de prever o surgimento de algumas doenças em um estágio inicial em vários pacientes.

No entanto, os resultados acabaram sendo um pouco estranhos. Por exemplo, o sistema começou a diagnosticar perfeitamente a esquizofrenia. Mas mesmo para psiquiatras experientes, diagnosticar esquizofrenia é um problema complexo. Mas o computador lidou com isso com um estrondo. Porque Ninguém pode explicar, nem mesmo os criadores do sistema.

Inicialmente, os desenvolvedores de IA foram divididos em dois campos. Os apoiadores do primeiro disseram que a máquina deve ser programada para que todos os processos que ocorrem no sistema possam ser vistos e compreendidos. O segundo campo aderiu à ideia de que a máquina deveria aprender sozinha, recebendo dados do número máximo de fontes, seguida pelo processamento independente desses dados. Ou seja, os defensores desse ponto de vista sugeriram que cada rede neural deveria ser "seu próprio chefe".

Tudo isso permaneceu pura teoria até o momento presente, quando os computadores se tornaram poderosos o suficiente para que especialistas em inteligência artificial e redes neurais pudessem começar a colocar suas idéias em prática. Nos últimos dez anos, um grande número de idéias foi implementado, surgiram excelentes serviços que ajudam a traduzir textos de um idioma para outro, reconhecer fala, processar um fluxo de vídeo em tempo real, trabalhar com dados financeiros e otimizar os processos de produção.



Mas o problema é que quase qualquer tecnologia de aprendizado de máquina não é muito transparente para especialistas. No caso da programação "manual", a situação é muito mais simples. Obviamente, não se pode dizer que sistemas futuros serão incompreensíveis para qualquer pessoa. Mas, por natureza, o aprendizado profundo é uma espécie de caixa preta.

Você não pode simplesmente olhar para os princípios da rede neural e prever o resultado que obteremos como resultado do processamento de algum tipo de matriz de dados. Dentro da "caixa preta" existem dezenas e centenas de "camadas de neurônios" interconectadas em uma ordem bastante complicada. Além disso, o valor para o resultado final não é apenas o trabalho das camadas, mas também de neurônios individuais. Na maioria dos casos, uma pessoa não pode prever o que aparecerá na saída de uma rede neural.

Um exemplo de como uma rede neural difere do cérebro humano é o sistema Deep Dream. Este é um projeto do Google, uma rede neural, no qual uma foto regular foi introduzida e com o objetivo de convertê-la de acordo com um tópico específico. Bem, por exemplo, faça com que todos os objetos da imagem pareçam cães. Os resultados impressionaram a todos. De alguma forma, a tarefa de gerar uma imagem com halteres foi introduzida no sistema. O sistema aguentou, mas em todos os casos as mãos das pessoas foram atraídas para o haltere - a rede neural decidiu que o braço do haltere é um sistema único que não pode ser considerado como dois elementos separados.



Especialistas acreditam que é necessário entender melhor como esses sistemas funcionam. Isso é necessário pela simples razão de que eles estão começando a usar redes neurais em áreas cada vez mais importantes em que um erro pode levar a um final triste (a negociação de valores mobiliários é um exemplo). “Se você tem uma pequena rede neural, pode entender perfeitamente como ela funciona. Mas quando uma rede neural cresce, o número de elementos nela aumenta para centenas de milhares de neurônios por camada com centenas de camadas - nesse caso, torna-se imprevisível ”, diz Jaakkola.

No entanto, as redes neurais devem ser usadas no trabalho, no mesmo medicamento. Os médicos subestimam a importância de muitos dados; uma pessoa simplesmente não é capaz de capturar os olhos e encontrar os links entre centenas de registros no histórico médico do paciente. E a máquina - talvez esse seja o grande valor das redes neurais e do aprendizado profundo em geral.

As forças armadas dos EUA investiram bilhões de dólares no desenvolvimento de sistemas automáticos de controle de drones, na identificação e identificação de vários objetos, na análise de dados. Mas os militares acreditam que o trabalho de tais sistemas deve ser compreensível e explicável. Os soldados que estão trancados em um tanque controlado automaticamente se sentirão muito desconfortáveis ​​se não entenderem como e o que funciona, por que o sistema tomou essa decisão e não outra.

Talvez no futuro esses sistemas expliquem suas ações. Por exemplo, Carlos Guestrin, professor da Universidade de Washington, desenvolveu um sistema de computador que explica os resultados intermediários de seus cálculos. Este sistema pode ser usado para analisar mensagens eletrônicas. Se algum deles for avaliado por um computador como enviado por um terrorista condicional, será dada uma explicação do porquê dessa conclusão.

Segundo o cientista, as explicações devem ser bastante simples e compreensíveis. "Ainda não alcançamos o sonho em que a IA apenas conversa com você e pode explicar", diz Guestrin. "Estamos apenas no início de uma longa jornada em direção à criação de uma IA transparente".

Compreender os motivos que levaram a IA a um resultado específico é importante se queremos tornar a IA parte de nossas vidas e parte útil. Isso é verdade não apenas no caso das forças armadas, mas se aplica à Siri ou a qualquer outro assistente digital. Por exemplo, se você pedir à Siri para fazer uma seleção de restaurantes próximos, muitos querem entender por que esses restaurantes são exibidos, e não outros. Um critério importante para a implementação da IA ​​é a confiança humana nos sistemas de computador.

Provavelmente, ainda é impossível fazer o computador explicar todas as suas ações e decisões - porque, por exemplo, as ações e decisões de qualquer pessoa geralmente são impossíveis de entender. Eles dependem de um grande número de fatores. E quanto mais complexa a rede neural, mais esses fatores são levados em consideração e analisados.

Isso levanta uma série de questões complexas de natureza ética e social. Por exemplo, no caso das mesmas forças armadas, quando se trata de criar tanques automatizados e outras máquinas de matar, é importante que suas decisões cumpram os padrões éticos humanos. De fato, matar-se pode não estar de acordo com os padrões éticos de muitos de nós. Mas essas decisões devem ser pelo menos aceitáveis ​​para a maioria. Embora, qual é essa maioria? Também uma pergunta.

Daniel Dennett, filósofo da Universidade Tufts, diz: “Acredito que se vamos usar essas coisas e depender delas, precisamos entender como e por que elas agem dessa maneira e não de outra forma. Se eles não puderem nos explicar melhor o que estão fazendo, não confie neles. "

Source: https://habr.com/ru/post/pt404521/


All Articles