O “renascimento da IA” nada mais é do que hardware e publicidade caros abandonados para implementar uma ideia antiga

Não há espírito no carro



Nos últimos anos, a mídia foi inundada com descrições exageradas das tecnologias de inteligência artificial (IA) e aprendizado de máquina (MO). Parece que nunca houve tal coisa no campo da ciência da computação que tantas declarações ridículas foram feitas por tantas pessoas com uma idéia tão pequena do que está acontecendo. Para qualquer pessoa ativamente envolvida em equipamentos avançados de informática nos anos 80, o que parece ser estranho.

Na edição deste mês de The Atlantic, autor intelectual e best-seller de sucesso , Sapiens.Uma breve história da humanidade e Homo Deus: uma breve história do amanhã , Yuval Noah Harari descreve o impacto da IA ​​na democracia. O aspecto mais interessante do artigo é a fé excessiva da Harari nos recursos das modernas tecnologias de IA. Ele descreve um amigo do Google, o programa de xadrez do DeepMind , como "criativo", "imaginativo" e "brilhante instinto".

No documentário Joy of AI da Força Aérea, o professor Jim Al-Khalili e o fundador do DeepMind, Demis Hassabis, descrevem como o sistema de IA "fez uma descoberta real", "é capaz de realmente gerar uma nova idéia" e desenvolveu "estratégias inventadas independentemente".

E se um fluxo semelhante de exageros e antropomorfismos for usado para descrever sistemas estúpidos e mecanicistas, é hora de testar a realidade com um retorno ao básico.

A discussão sobre a tecnologia de computador geralmente ocorre através de mitos, metáforas e interpretações humanas do que aparece na tela. Metáforas como "intuição", "criatividade" e novas "estratégias" fazem parte da mitologia emergente. Os especialistas em IA encontram padrões no jogo de IA e os chamam de "estratégias", mas a rede neural não tem idéia do que é uma estratégia. Se houver algum tipo de criatividade, ela pertence aos pesquisadores do DeepMind, que desenvolvem e gerenciam os processos dos sistemas de treinamento.

Os sistemas atuais de IA treinam com base em uma enorme quantidade de tentativa e erro automatizados; em cada estágio, a técnica de propagação reversa é usada para transmitir informações sobre erros e ajustar o sistema para reduzir o número de erros no futuro - e isso gradualmente melhora a eficácia da IA ​​na execução de uma determinada tarefa, como jogar xadrez.

O aumento na eficácia da IA, MO e assim por diante. “Deep learning” (GO) é, em grande parte, baseado na aplicação dessa técnica de retropropagação. Foi inventado pela primeira vez na década de 1960 e aplicado a redes neurais na década de 1980 por Joffrey Hinton. Em outras palavras, há mais de 30 anos, não há progresso conceitual significativo na IA. A maioria dos resultados de pesquisas de IA e artigos de mídia mostra o que acontece quando montanhas de equipamentos de computação caros e uma campanha publicitária engenhosa são lançadas na execução de uma idéia antiga.

E não se pode dizer que o DeepMind não faça um trabalho valioso. O trabalho auxiliar das máquinas na criação de novas estratégias e idéias é algo interessante, principalmente se a operação dessa máquina for difícil de entender devido à sua complexidade. Em nossa cultura secular, a magia e o mistério da tecnologia atraem as pessoas, e dar uma imagem misteriosa a um campo de engenharia quase sempre seco e racional é apenas benéfico. Mas não há espírito em uma máquina amiga do Google.

Ferro vs. Software, Analógico vs. Digital, Thompson vs. Hassabis


Todo o hype em torno das máquinas DeepMind me lembra a emoção que surgiu algumas décadas atrás, na sequência de um sistema de "aprendizado de máquina" completamente diferente e possivelmente mais profundo.

Em novembro de 1997, o trabalho de Adrian Thompson, pesquisador do Centro de Neurobiologia e Robótica Computacional da Universidade de Sussex, foi publicado na revista New Scientist, juntamente com o artigo "Criações do silício pré-histórico - lançamos o darwinismo no laboratório de eletrônica e vemos o que ele cria". Um carro resistente que ninguém entende.

O trabalho de Thompson causou uma leve sensação, pois ele rejeitou os costumes e lançou a evolução do sistema MO em equipamentos eletrônicos, em vez de usar uma abordagem programática como todos os outros. Ele decidiu fazer isso porque percebeu que o software digital era limitado pela natureza binária on / off dos comutadores que compõem o cérebro de processamento de sinais de qualquer computador digital.

Os neurônios do cérebro humano, pelo contrário, evoluíram para participar de vários processos físicos e bioquímicos sutis, às vezes incompreensivelmente complexos. Thompson sugeriu que o desenvolvimento de equipamentos de computação usando um processo automático de seleção natural pode tirar proveito de todas as propriedades físicas analógicas (infinitamente diversas) do mundo real inerentes ao silício, que compõem os comutadores de computador digital mais simples - o que pode levar a algo parecido com eficaz trabalho analógico dos componentes do cérebro humano. E ele estava certo.

Em seu laboratório, Thompson liderou a evolução da configuração do FPGA (um tipo de chip de silício digital no qual as conexões entre seus comutadores digitais podem ser constantemente reconfiguradas) para ensiná-lo a separar dois sinais de áudio diferentes. Depois de olhar dentro do chip para ver como o processo evolutivo sintonizava as conexões entre os comutadores, ele observou um esquema de trabalho impressionante - ele usava apenas 37 componentes.

Além disso, o esquema evolutivo resultante não é mais entendido pelos engenheiros digitais. Alguns dos 37 componentes não estavam conectados aos outros, mas quando foram removidos do circuito, o sistema inteiro parou de funcionar. A única explicação razoável para essa situação estranha era que o sistema usava algum tipo de misteriosa conexão eletromagnética entre seu tipo de componentes digitais. Em outras palavras, o processo evolutivo adotou as características analógicas dos componentes e materiais do sistema do mundo real para realizar seus “cálculos”.

Foi uma explosão cerebral. Eu era um jovem pesquisador nos anos 90, tinha experiência trabalhando tanto no campo de pesquisa em equipamentos eletrônicos quanto em IA, e o trabalho de Thompson me surpreendeu. O computador não só foi capaz de inventar um tipo completamente novo de circuito eletrônico e superar as capacidades dos engenheiros eletrônicos, mas, mais importante, indicou o caminho para o desenvolvimento de sistemas de computador e IA infinitamente mais poderosos.


Hassabis começou como programador principal de IA no jogo agora esquecido do Lionhead Studio, Black & White.

Então o que aconteceu? Por que Thompson está quase esquecido, e a empresa-mãe do Google, Alphabet, está jogando Hassabis com dinheiro, e documentários da Força Aérea estão cantando letras de música para ele? Na maior parte, é sobre um bom momento. Na década de 1990, a IA estava tão na moda quanto a calcinha da avó. Hoje, a IA tem o ônus da necessidade de nos levar à "quarta revolução industrial". O capital está perseguindo o "próximo grande projeto". Embora os sistemas de IA digital da DeepMind não sejam muito adequados para simular sistemas analógicos complexos do mundo real, como o tempo ou o cérebro humano, eles são definitivamente adequados para processar dados digitais provenientes do mundo online digital mais simples na forma de links, cliques, curtidas, listas de reprodução e pixels .

O DeepMind também se beneficiou de sua capacidade de mostrar a face do produto. A DeepMind anunciou sua tecnologia e liderança, cultivando o mistério tecnológico, mas toda a demonstração de seu trabalho se resumiu a brinquedos com as regras computáveis ​​mais simples. A vantagem dos jogos é sua compreensão e apelo visual à mídia e ao público. De fato, a maioria dos aplicativos comerciais dessa tecnologia estará associada a aplicativos comuns de negócios em segundo plano , por exemplo, otimizando a eficiência energética dos data centers nos quais o Google armazena seus computadores.

Ceci n'est pas une paddle *


* “Isto não é um remo” - uma referência à pintura “ Traição de Imagens

Thompson e Hassabis - exceto por serem britânicos, definitivamente possuíam a experiência e as habilidades necessárias para o treinamento e a evolução eficazes de seus sistemas, mas essa dependência das habilidades e da criatividade das pessoas é obviamente uma fraqueza de qualquer sistema de IA ou MO. Além disso, a tecnologia deles era muito frágil. Por exemplo, os sistemas Thompson frequentemente paravam de funcionar a temperaturas diferentes daquelas em que evoluíam. Enquanto isso, no DeepMind, simplesmente alterar o tamanho da raquete em um dos videogames da empresa negava completamente a eficácia da IA. Essa fragilidade se deve ao fato de a IA do DeepMind não entender o que é uma raquete - e até o próprio videogame; seus comutadores funcionam apenas com números binários.

Recentemente, os sistemas MO realmente alcançaram grandes sucessos, mas esse progresso, em grande parte, foi obtido devido ao uso de uma enorme quantidade de equipamentos de computação padrão para resolver problemas, em vez de inovações radicais. Em algum momento em um futuro não muito distante, não será mais possível colocar mais pequenas chaves de silício em um chip de silício. A eficiência do circuito (mais cálculos em menos equipamentos) se tornará importante comercialmente e, nesse ponto, os equipamentos em evolução podem finalmente se tornar moda.

Também podem aparecer sistemas híbridos que combinam as abordagens de Thompson e Hassabis. Mas não importa o que aconteça, Harrari terá que esperar até que ele possa adquirir um sistema de IA “criativo” para escrever seu próximo livro mais vendido.

Source: https://habr.com/ru/post/pt430154/


All Articles