Se um robô mata uma pessoa, quem será o culpado?

imagem

Se você está procurando sinais de um apocalipse iminente no qual os robôs serão culpados , preste atenção à zona desmilitarizada entre as Coréias do Norte e do Sul. Aqui, ao longo da fronteira mais fortificada do mundo, mais do que apenas soldados estão de vigia.


Conheça o SGR-A1, um relógio-robô desenvolvido pela Samsung na Coréia do Sul. A unidade de 1,2 metros parece um pouco maior que um par de caixas de sapatos de metal preto, mas seus olhos sem alma equipados com portas de infravermelho podem detectar o inimigo a até quatro quilômetros de distância. Sua metralhadora está pronta. 

imagem

Atualmente, o robô notifica seus criadores de suspeitos de atacar na sala de controle. E para ele abrir fogo, é necessária a aprovação do homem. Mas este robô também funciona no modo automático e pode disparar primeiro a seu critério. Resistência, meus companheiros humanos, é inútil.

O Pentágono e as forças armadas de todo o mundo estão desenvolvendo uma arma cada vez mais autônoma que vai muito além dos drones controlados remotamente usados ​​por Washington no Paquistão, Afeganistão e outros países. Os avanços tecnológicos permitirão que esses novos tipos de armas selecionem um alvo e atire nele de sua escolha, sem a aprovação humana. Alguns prevêem que esses robôs um dia lutarão lado a lado com soldados humanos.

Sem surpresa, as notícias de robôs que estão matando deixam algumas pessoas nervosas. Em abril deste ano, uma coalizão internacional de designers, cientistas e defensores dos direitos humanos lançou uma campanha contra a criação de robôs assassinos e apelou aos diplomatas das Nações Unidas em Genebra. Os ativistas querem proibir o desenvolvimento e o uso de "armas autônomas mortais", embora reconheçam que essas armas, embora tecnologicamente possíveis, nunca foram usadas.  

"Faz sentido fazer uma pergunta: o valor da vida humana diminuirá com o fato de os robôs poderem matar pessoas?" Disse Peter Asaro, professor assistente da Escola de Estudos de Mídia em Nova York e porta-voz da Campanha do Robô Assassino.

Esta é apenas uma questão com a qual os filósofos, estudiosos do direito e cientistas têm lutado desde tempos imemoriais, enquanto o mundo se prepara para o ataque de novos robôs, que, segundo nos dizem, cortam grama, cuidam de idosos, ensinam crianças com autismo e até dirija nossos carros. Esses robôs não podem matar, mas as autoridades de trânsito querem forçar governos e tribunais a considerar uma série de questões legais e éticas. Quem devo processar se for atropelado por um carro sem motorista? E se o robô médico der ao paciente a droga errada? O que devo fazer se um aspirador de pó robô chupar meu cabelo acidentalmente enquanto cochilo no chão (como aconteceu com uma mulher na Coréia do Sul há pouco tempo)? Um robô pode cometer um crime de guerra?

É essa última pergunta que mais preocupa o professor Asaro. Ele e outros membros da coalizão da Human Rights Watch afirmam que, se um sistema autônomo de computador programado para distinguir soldados inimigos de civis realmente acionar o gatilho sem "aprovação humana", será muito difícil manter a situação sob controle. controle se algo der errado.

Se um robô trava e mata uma vila inteira, você não pode colocar um objeto inanimado na frente do Tribunal Penal Internacional ou entregá-lo a um campo militar. E alguns especialistas dizem que você não pode culpar legalmente nem mesmo os desenvolvedores de robôs se eles não assumiram que o robô poderia ficar louco. 

No direito penal, os tribunais devem encontrar o que é conhecido como mens rea ou vontade culpada (do latim). Mas é improvável que encontrem informações de que o robô - com o atual nível de desenvolvimento da inteligência artificial - tenha uma vontade em princípio. Os projetistas de robôs podem ser responsabilizados se for descoberto que o robô está fora de controle devido a um mau funcionamento do programa. No entanto, eles podem não ser responsabilizados pelas ações do robô assassino.

Esses robôs assassinos podem parecer algo como drones autônomos e rovers robóticos com metralhadoras. Em uma diretiva de 2012, o Departamento de Defesa dos EUA determinou que os sistemas autônomos "deveriam ser projetados para que comandantes e operadores possam exercer níveis adequados de controle humano sobre o uso da força". Em resposta a um e-mail de uma pergunta do The Globe and Mail, o Departamento Canadense de Defesa da Pátria disse que "uma arma mortal autônoma não está sendo desenvolvida", mas sua agência de pesquisa está ativamente envolvida em um "programa de pesquisa em sistemas não tripulados".

Pelo menos uma empresa de robótica, a Clearpath Robotics Inc., sediada em Waterloo, Ontário, se opôs aos robôs assassinos, apesar de criar robôs para as forças armadas canadenses e americanas. Ryan Gariepie, co-fundador do ClearPath e seu diretor de tecnologia, disse que a remoção de minas ou a vigilância, mas não a morte, é um bom uso para robôs de combate autônomos, especialmente se esses veículos estiverem apenas em um lado da batalha: “Os robôs podem decidir quem pode suportar "uma sentença de morte? Alguém tem o direito de tirar a vida de soldados inimigos dessa maneira?"

Inevitavelmente, a discussão sobre assassinos de robôs gira em torno das “três leis da robótica” das histórias do escritor de ficção científica Isaac Asimov. A primeira lei proíbe os robôs de prejudicar os seres humanos; o segundo ordena que obedeçam às pessoas apenas se isso não contradizer a primeira lei; o terceiro ordena que os robôs protejam suas próprias vidas - desde que isso não viole as duas primeiras leis. Mas a maioria dos especialistas diz que essas leis serão de pouca utilidade no mundo real: até Asimov mostra suas deficiências em suas histórias. 

No entanto, o professor Ronald Arkin, do Georgia Institute of Technology, um conhecido designer de robôs americano que trabalha em projetos do Pentágono, afirma que robôs assassinos ou outros sistemas de armas automatizados podem ser programados para seguir as leis da guerra - e segui-las melhor que os humanos . Um robô, ele diz, nunca atirará para defender sua vida ou por medo. Ele terá acesso a informações e dados que nenhum soldado humano poderia processar tão rapidamente, cometendo menos erros no calor da batalha. Ele nunca matará intencionalmente civis em vingança pela morte de um camarada. E ele realmente pode vigiar os soldados para que eles não cometam atrocidades.

O professor Arkin também afirma que a tecnologia autônoma já está essencialmente no campo de batalha. Segundo ele, as baterias de mísseis US Patriot selecionam automaticamente alvos e dão a uma pessoa até nove segundos para cancelar o alvo e parar o foguete. E o sistema Phalanx da Marinha dos EUA protege navios disparando automaticamente mísseis.

Mas mesmo eles exigem uma moratória no desenvolvimento de armas mais autônomas, desde que seja possível demonstrar que elas podem reduzir as baixas civis. “Ninguém quer a aparência do Exterminador. Quem gostaria de ter um sistema que possa ser enviado em uma missão e ele decidirá independentemente quem precisa ser morto? - diz o professor Arkin. "Esses sistemas devem ser desenvolvidos com muito cuidado e cuidado, e acho que existem maneiras de fazer isso".

Recentemente, grandes empresas de tecnologia estão cada vez mais preocupadas com inteligência artificial. O físico Stephen Hawking alertou que o advento da IA ​​"poderia significar o fim da raça humana". Elon Musk, fundador da Tesla Motors, chamou a IA de "ameaça existencial" - não menos perigosa que as armas nucleares. Bill Gates, fundador da Microsoft, também está preocupado.

Pessoas que realmente trabalham com inteligência artificial dizem que há algo com que se preocupar. Yoshua Bengio, um dos principais pesquisadores de IA da Universidade de Montreal, observa que a ficção de Star Wars e Star Trek superestima muito as capacidades de robôs e inteligência artificial. Um dia, ele diz, poderíamos construir máquinas que competissem com o cérebro humano. Mas agora a IA ainda não está tão desenvolvida.

Muito mais precisa ser feito antes que os robôs se tornem o que você vê nos filmes ”, diz o professor Bengio. - Ainda estamos muito longe de obter o nível de compreensão do mundo que esperamos, digamos, de uma criança de cinco anos ou até de um adulto. E para atingir esse objetivo, pode levar décadas ou mais. Não podemos nem repetir a inteligência no nível do mouse.


Sem dúvida, o desenvolvimento de hardware e software para robôs está constantemente avançando.

Os robôs desenvolvidos pela Boston Dynamics, recentemente adquiridos pelo Google, podem atravessar cães como cães e engatinhar como ratos em uma área de desastre. 



Um cão robô chamado Spot pode ficar de pé depois de ser espancado e suas pernas de metal parecem assustadoramente realistas.  



Mas se você tem medo de que uma revolução matadora de robôs seja inevitável, o Atlas, um robô humanóide de 90 quilos e dez metros de altura, pode ajudá-lo a se acalmar. Também criado pelo Boston Dynamics, ele pode subir escadas e pedras. Parece o Cyberman de Doctor Who, uma série desenvolvida pela Apple. No entanto, sua bateria dura apenas 1 hora.



Parece que, diz Jan Kerr, chefe do departamento de ética, direito e tecnologia da Universidade de Ottawa, que as pessoas gradualmente assumirão o controle de máquinas com inteligência artificial - computadores que eventualmente farão certas coisas melhor do que nós. Embora demore algum tempo até que os carros apareçam e não precisem de motorista, mesmo agora já existem carros que podem estacionar por conta própria. IBM Watson Robot da International Business Machines Corp., que venceu o questionário Jeopardy! em 2011, atualmente é usado para analisar milhões de páginas de pesquisa médica para recomendar procedimentos para pacientes com câncer.

— ...  - , , , , , - . — , , , … , , .

Source: https://habr.com/ru/post/pt381437/


All Articles