A guerra da IA está começando a dominar as estratégias dos EUA e da China, mas as tecnologias estão prontas para isso?

Em março passado, os pesquisadores chineses anunciaram sua intenção de lançar um ataque brilhante e potencialmente devastador a um dos ativos tecnológicos mais valiosos da América: o carro elétrico Tesla.
Uma equipe do laboratório de segurança da gigante tecnológica chinesa Tencent mostrou várias maneiras de enganar o algoritmo de IA da Tesla. Alterando levemente os dados dos sensores do carro, os pesquisadores conseguiram confundir a IA que dirigia o carro.
Em um caso, havia um padrão oculto na tela da TV que fazia os limpadores funcionarem.
Em outro, as marcações na estrada foram levemente alteradas para confundir o sistema de direção autônomo, depois do qual mudou o carro para uma faixa adjacente.
Os algoritmos de Tesla costumam fazer um ótimo trabalho ao detectar pingos de chuva no pára-brisa ou seguir as indicações das estradas, mas seu princípio de operação é fundamentalmente diferente da percepção humana. Por causa disso, torna-se surpreendentemente fácil enganar algoritmos de aprendizado profundo (rapidamente ganhando popularidade em áreas como reconhecimento facial e diagnóstico de câncer) se você conhecer suas fraquezas.
Pode parecer que na confusão do carro da Tesla não haja ameaças estratégicas para os Estados Unidos. Mas e se tecnologias semelhantes fossem usadas para enganar drones de batalha ou software que analisa imagens de satélite para que ele veja objetos que não estão nas imagens ou não veja o que realmente é?
O acúmulo de inteligência artificial
Em todo o mundo, a IA já é considerada o próximo passo na obtenção de uma vantagem militar significativa.
Este ano, os Estados Unidos anunciaram a implementação de uma estratégia na qual a IA será usada em muitos campos militares, incluindo análise de dados, tomada de decisão, veículos autônomos, logística e armas. Dos US $ 718 bilhões solicitados pelo Ministério da Defesa para 2020, US $ 927 milhões serão destinados à IA e aprendizado de máquina. Entre os projetos existentes, existem dois chatos (verificando se a IA pode prever a necessidade de manutenção de tanques e caminhões) e as coisas mais avançadas no campo dos armamentos (enxames de drones).
O Pentágono defende o uso da IA, principalmente por temer que sua tecnologia possa ser usada por seus adversários. No ano passado, Jim Mattis, como secretário de Defesa, enviou ao presidente Donald Trump um memorando alertando que os EUA já estão atrasados em questões de IA. Sua ansiedade pode ser entendida.
Em julho de 2017, a China apresentou sua estratégia de IA, dizendo que “os maiores países desenvolvidos do mundo aceitam o desenvolvimento de IA como a principal estratégia para melhorar a posição competitiva e proteger a segurança do Estado”. Alguns meses depois, Vladimir Putin, presidente da Rússia, fez a seguinte previsão: “Quem se tornar um líder em IA governará o mundo” [
esta é uma tradução literal da passagem citada do artigo original. Mas, como costuma acontecer, a cotação está distorcida. Ela soou assim : “Se alguém pode garantir o monopólio no campo da inteligência artificial, todos nós entendemos as conseqüências - ele se tornará o governante do mundo” / aprox. perev. ]
O desejo de construir as armas mais inteligentes e mortais pode ser entendido, mas, como mostra o hack de Tesla, um inimigo que conhece os princípios do algoritmo de IA pode neutralizá-lo ou até mesmo jogá-lo contra os proprietários. O segredo para ganhar guerras de IA pode não ser a construção das armas mais impressionantes, mas o domínio da arte de enganar os softwares traiçoeiros.
Robôs de batalha
Em um dia ensolarado, no verão passado em Washington, DC, Michael Canaan sentou-se no café do Pentágono, comeu um sanduíche e ficou impressionado com o novo conjunto de poderosos algoritmos de aprendizado de máquina.
Algumas semanas antes, Kanaan assistiu a um videogame no qual cinco algoritmos de IA funcionavam juntos, e quase derrotou e enganou cinco pessoas em um concurso no qual eles precisavam controlar forças, acampamentos e recursos espalhados por um campo de batalha grande e complexo. No entanto, Kanaan franziu a testa por baixo do cabelo loiro curto enquanto descrevia o que estava acontecendo. Foi a demonstração mais impressionante da estratégia de IA de tudo o que ele viu - um empurrão inesperado da IA, semelhante ao que aconteceu no xadrez, nos jogos da Atari, etc.
Essas lutas foram disputadas no Dota 2, um popular videogame da NF que permanece incrivelmente complexo para os computadores. As equipes devem defender seus territórios atacando o campo inimigo em um ambiente mais complexo e traiçoeiro do que qualquer jogo de tabuleiro. Os jogadores podem ver apenas uma pequena parte do campo inteiro e pode levar cerca de meia hora para determinar se sua estratégia está vencendo.
Os oponentes sob o controle da IA não foram desenvolvidos pelos militares, mas pela OpenAI, criada para realizar pesquisas básicas no campo da IA pelos luminares do Vale do Silício, incluindo Elon Mask e Sam Altman. Esses guerreiros algorítmicos, conhecidos como OpenAI Five, desenvolveram sua própria estratégia de vitória, praticando o jogo incansavelmente e usando movimentos que provaram ser os melhores.
Esse é o tipo de software que interessa a Canaan, um dos que precisam usar a IA para modernizar o exército americano. Do seu ponto de vista, este software mostra quais vantagens o exército receberá, contando com a ajuda dos principais pesquisadores mundiais no campo da IA. No entanto, se eles estão prontos para fornecê-lo - esta questão está se tornando mais aguda.
Kanaan liderou o Projeto da Força Aérea dos Estados Unidos Maven, uma iniciativa militar destinada a usar a IA para automatizar o reconhecimento de objetos em fotografias aéreas. O Google foi o contratado do projeto e, quando em 2018 alguns funcionários da empresa descobriram isso, a empresa decidiu abandonar o projeto. Depois disso, a empresa divulgou as regras para o uso da IA, onde escreveu que o Google não a usará para desenvolver "armas ou outras tecnologias cujo principal objetivo ou método de implementação envolva causar ferimentos às pessoas".
O Google foi seguido por funcionários de outras grandes empresas de tecnologia, exigindo que os empregadores se abstenham de contratos militares. Muitos pesquisadores de IA de destaque apoiaram as tentativas de organizar uma proibição global de armas totalmente autônomas.
No entanto, para Kanaan, será um grande problema se os militares não puderem trabalhar com pesquisadores - como aqueles que desenvolveram o OpenAI Five. A perspectiva em que o adversário terá acesso a essa tecnologia avançada parece ainda mais desagradável. "O código é de domínio público, todos podem usá-lo", disse ele. E acrescentou: a guerra é muito mais complicada do que um videogame. ”

Aumento da IA
Kanaan enfatiza a questão com a IA, em particular porque ele sabe em primeira mão o quão útil pode ser para os militares. Seis anos atrás, ele era um oficial de inteligência no Afeganistão da Força Aérea dos EUA e era responsável pela implantação de um novo dispositivo de coleta de informações: um analisador hiperespectral. Essa ferramenta pode observar objetos ocultos da visão comum, como tanques cobertos com tecido de camuflagem ou emissões de uma fábrica ilegal de explosivos. Kanaan diz que esse sistema permitiu que os militares removessem milhares de quilos de explosivos do campo de batalha. E ainda assim, muitas vezes, os analistas não podiam, na prática, analisar a enorme quantidade de dados coletados pelo analisador. "Passamos muito tempo olhando os dados e muito pouco tempo tomando decisões", diz ele. "Às vezes isso se arrastava tanto que começamos a pensar se poderíamos salvar ainda mais vidas".
A solução pode ser encontrada em um avanço feito no campo da visão computacional por uma equipe da Universidade de Toronto, sob a direção de Joffrey Hinton. Os cientistas mostraram que um algoritmo inspirado em uma rede neural de várias camadas pode reconhecer objetos com uma precisão sem precedentes se você fornecer dados e poder de computação suficientes.
O aprendizado de uma rede neural implica que ele receberá dados, por exemplo, pixels da imagem e os processará, alterando constantemente as conexões internas na rede usando técnicas matemáticas, para que a saída seja o mais próxima possível de um resultado específico, por exemplo, determinando se imagem do objeto. Com o tempo, essas redes neurais de aprendizado profundo aprendem a reconhecer padrões de pixels que indicam, por exemplo, pessoas ou lares. Os avanços no aprendizado profundo geraram o atual boom da IA; Essa tecnologia é a base de sistemas independentes para os algoritmos Tesla e OpenAI.
Kanaan reconheceu imediatamente o potencial do aprendizado profundo para processar vários tipos de imagens e dados de sensores para operações militares. Ele e seus colegas da Força Aérea logo começaram a agitar as autoridades para investir nessa tecnologia. Seus esforços contribuíram para o avanço dos planos de desenvolvimento de IA do Pentágono.
No entanto, logo após o aprendizado profundo entrar no campo da IA, os pesquisadores descobriram que as mesmas propriedades que a tornam uma ferramenta tão poderosa também são o calcanhar de Aquiles.
Se for possível calcular como ajustar os parâmetros da rede para classificar corretamente o objeto, será possível calcular quais alterações mínimas na imagem podem causar erros na rede. Em tais "exemplos competitivos", depois de alterar apenas alguns pixels da imagem, parece a mesma para uma pessoa, mas é percebida de uma maneira completamente diferente pelo algoritmo de IA. O problema pode ocorrer onde quer que o aprendizado profundo seja usado - por exemplo, no gerenciamento de veículos robóticos, no planejamento de missões ou na detecção de hacks na rede.
E, no meio de todo esse crescimento ativo no uso da IA para fins militares, poucas pessoas percebem as misteriosas vulnerabilidades no software.
Mover alvos
Um objeto digno de nota ilustra todo o poder do aprendizado de máquina competitivo. Esta é uma imagem de um bug.
Parece normal para mim ou para você, mas ela vê um robô ou um robô com um certo algoritmo de visão de máquina obtido através de treinamento profundo ... como uma arma. De fato, o padrão único das marcas na casca da tartaruga pode ser refeito para que a visão computacional baseada em IA, acessível através do serviço em nuvem do Google, a confunda com qualquer coisa (desde então, o Google atualizou seu algoritmo e você não pode enganá-lo )
Ao mesmo tempo, a tartaruga foi feita não pelo inimigo do estado, mas por quatro caras do MIT. Um deles é Anish Ataliy, um jovem magro e educado que trabalha na área de segurança de computadores no laboratório de ciência da computação e inteligência artificial (CSAIL). O vídeo rodando em seu laptop mostra o processo de teste de tartarugas (alguns desses modelos, ele disse, foram roubados em uma conferência), que são rotacionados em 360 graus e também de cabeça para baixo. E o algoritmo vê a mesma coisa: "espingarda", "espingarda", "espingarda".
Os primeiros exemplos competitivos eram frágeis e muitas vezes recusavam-se a trabalhar, mas Ataliy e seus amigos acreditavam que eles poderiam desenvolver uma versão bastante confiável de um exemplo que poderia funcionar mesmo em um objeto impresso em uma impressora 3D. Era necessário simular objetos tridimensionais e desenvolver um algoritmo que cria uma tartaruga - um exemplo competitivo que funcionará sob diferentes ângulos de visão e a diferentes distâncias. Simplificando, eles criaram um algoritmo que cria algo que engana de maneira confiável o aprendizado de máquina.
As aplicações militares dessa tecnologia são óbvias. Usando algoritmos competitivos de camuflagem, tanques e aviões podem se esconder de satélites e drones com IA. Mísseis guiados por IA podem ficar cegos com dados competitivos ou até voltar a alvos amigáveis. As informações fornecidas a algoritmos inteligentes podem ser envenenadas disfarçando uma ameaça terrorista ou aprisionando soldados no mundo real.
Atalya está surpreso com a pouca preocupação que tem com o aprendizado competitivo de máquinas. "Conversei com várias pessoas dessa indústria, perguntando se estavam preocupadas com exemplos competitivos", diz ele. "Quase todos responderam negativamente."
Felizmente, o Pentágono está começando a prestar atenção nisso. Em agosto, o projeto DARPA anunciou o lançamento de vários grandes projetos de pesquisa em IA. Entre eles está o GARD, um programa focado em aprendizado de máquina competitivo. Hawa Shigelman, professor da Universidade de Massachusetts e gerente de programas da GARD, diz que esses ataques podem ser devastadores em situações militares porque as pessoas não podem reconhecê-los. "Somos supostamente cegos", diz ele. "E isso torna a situação muito perigosa."
Os problemas concorrentes de aprendizado de máquina também explicam por que o Pentágono está tão interessado em trabalhar com empresas como Google e Amazon, bem como com institutos de pesquisa como o MIT. A tecnologia está se desenvolvendo muito rapidamente, e os mais recentes avanços estão ocorrendo em laboratórios administrados por empresas do Vale do Silício e pelas melhores universidades, em vez de empreiteiros de defesa comuns.
O que é importante, eles também ocorrem fora dos Estados Unidos, em particular na China. "Acho que outro mundo está chegando", diz Kanaan. "E temos que lutar contra a IA".
A reação irada ao uso da IA para fins militares é compreensível, mas pode não ser a imagem completa. As pessoas estão preocupadas com robôs assassinos inteligentes, no entanto, é possível que em breve corremos o risco de uma névoa algorítmica de guerra - através da qual mesmo as máquinas mais inteligentes não podem ver nada.