Os drones militares são muito "inteligentes", alguns operam o operador de tempos em tempos e o resto do tempo eles executam a tarefa por conta própriaAs tecnologias de inteligência artificial estão crescendo rapidamente. Os especialistas ensinaram muito a IA, agora sua forma fraca (forte, felizmente ou infelizmente ainda não foi criada) funciona na indústria, na navegação, no entretenimento e em muitas outras indústrias. Mas e os assuntos militares? Sim, a IA também é usada aqui, porque uma análise preditiva da trajetória de um foguete ou veículo, ações inimigas, o desenvolvimento de sua própria estratégia - a inteligência artificial pode lidar com tudo isso.
Mas e se você criar IA de qualquer nível em uma arma, ela não se tornará mais eficaz? Muito provavelmente, ele se tornará e será muito "produtivo". Mas aqui questões de ética já aparecem. Uma máquina pode controlar o destino das pessoas? Muitos especialistas em tecnologia acreditam que não. E esses "muitos" assinaram recentemente uma declaração - uma espécie de promessa de nunca participar do desenvolvimento de armas inteligentes.
Entre outros especialistas que
participaram da criação e assinatura da declaração estavam Elon Musk, representantes do DeepMInd e funcionários de muitas outras empresas, onde questões de inteligência artificial são levantadas de uma maneira ou de outra. De acordo com um grupo de cientistas e empresários que deixaram suas assinaturas sob o memorando, cabe à outra pessoa decidir se deve matá-la ou não, e não a máquina. E o ônus dessa decisão recai sobre os ombros de quem a tomou.
No caso da máquina, não há hesitações morais - o sistema foi enviado de plantão, por exemplo, para vasculhar estradas rurais durante a guerra, e atira nos inimigos conforme a unidade de computação informa a
consciência . Segundo especialistas, o desenvolvimento de armas inteligentes com elementos de IA pode se tornar um fator desestabilizador para qualquer país e seus cidadãos.
O texto da declaração sobre o uso da IA na criação de armas foi publicado após a conferência da IJCAI (Conferência Internacional Conjunta sobre Inteligência Artificial), realizada em Estocolmo. Foi organizado pelo Future of Life Institute. Ele está estudando os riscos da existência humana. O Instituto anteriormente pedia o abandono da idéia de criar uma arma letal inteligente. Agora, essa idéia encontrou entendimento e está começando a se espalhar mais amplamente.
Entre os signatários estão o chefe da SpaceX e Tesla, Ilon Musk, os três co-fundadores da subsidiária do Google DeepMind, o criador do Skype, Jaan Tallinn, além dos pesquisadores de tecnologia mundialmente famosos da inteligência artificial Stuart Russell, Joshua Benggio, Jurgen Schmidhuber.

Separadamente, os signatários observaram que sua iniciativa comum deve ajudar a passar de palavras para ações em termos de abandonar armas letais inteligentes. Não, ninguém vai organizar uma revolução, a principal tarefa é mostrar o perigo da gradual intelectualização de armas de qualquer tipo. “Uma arma que decide independentemente quem matar é uma ideia repugnante e desestabilizadora, como uma arma biológica. A idéia de armas inteligentes deve ser tratada da mesma maneira que as armas biológicas. ”
Aqui, no entanto, há uma dificuldade. O fato é que distinguir uma arma verdadeiramente autônoma e "inteligente" de uma que não seja uma é bastante difícil. A linha fantasma. Quando as armas convencionais de alta tecnologia deixam de ser estúpidas, ficam mais sábias e começam a decidir quem manter vivo e quem matar? Torre automática que rastreia a aparência das pessoas por radiação térmica - é possível usar essa arma? E existe uma grande diferença entre armas inteligentes e armas convencionais, se a mesma torre for apontada automaticamente e uma pessoa pressionar o gatilho?
Além disso, a própria declaração estava atrasada - cerca de 30 países diferentes estão armados com sistemas letais, que com ou sem esforço, mas podem ser chamados de inteligentes.
A propósito, um fato interessante é que os desenvolvedores do Google literalmente
se rebelaram quando souberam que a empresa iria desenvolver sistemas autônomos para o Pentágono. Ou seja - drone não letal com IA.
Falando em armas inteligentes e seu futuro, não se pode deixar de lembrar uma história de ficção científica (o autor e o nome, infelizmente, não me lembro), onde uma ogiva razoável com um nível de inteligência como o de uma criança de 5 anos foi enviada para concluir uma tarefa. Mas ao se aproximar de uma base inimiga, ela descobriu que as pessoas moram lá, o mesmo que em sua própria base. Percebendo isso, ela decidiu relatar tudo ao seu criador e partiu em um voo de volta. A história termina com o fato de que o foguete voa para a janela da casa onde mora seu criador, mas por razões óbvias não há tempo para contar nada.