Por que você não deve esperar pelas manifestações morais dos robomobiles



Desde que as empresas começaram a desenvolver veículos robóticos, as pessoas começaram a fazer perguntas sobre como os designers resolveriam questões morais , como quem um robô deveria matar no caso de um acidente ser inevitável. Um estudo recente sugere que essa pergunta pode ser ainda mais difícil de responder do que se pensava anteriormente, pois as preferências morais das pessoas variam em diferentes países.

Pesquisadores da Universidade de Harvard e do MIT desenvolveram um jogo online que simula situações em que o acidente com as vítimas era inevitável. Eles entrevistaram 40 milhões de pessoas de 200 países, oferecendo várias opções de como esses incidentes deveriam terminar, por exemplo, se passageiros de carros ou pedestres deveriam morrer.

Como resultado, três grupos culturais com preferências éticas significativamente diferentes foram descobertos. Por exemplo, no aglomerado sul (que inclui a maior parte da América Latina e as ex-colônias francesas), preferia poupar as mulheres em detrimento dos homens. No cluster oriental (que incluía muitos países islâmicos, China, Japão e Coréia), as pessoas eram menos propensas a votar para salvar os jovens em detrimento dos idosos.

Os pesquisadores concluíram que esta informação deve influenciar as decisões dos desenvolvedores de robomobiles. Mas deveria? Este trabalho, destacando a interessante descoberta de diferenças globais nas preferências morais, também demonstra um mal-entendido persistente em relação à IA e suas capacidades. Dado o nível atual da tecnologia de IA usada em veículos robóticos, é claro que a máquina é incapaz de tomar decisões morais.

Fantasia de "máquinas morais"


Os robomobiles são treinados para tomar decisões sobre quando dirigir e quando desacelerar usando um tipo especial de IA, também conhecido como " IA fraca (estreita) " , que se concentra em uma tarefa altamente especializada. Eles são desenvolvidos usando vários sensores, câmeras e lasers rangefinding (lidares) que fornecem informações a um computador central. O computador usa a IA para analisar dados de entrada e tomar decisões.

E embora hoje essa tecnologia seja relativamente simples, como resultado, os carros podem superar uma pessoa nas tarefas mais simples associadas à direção. Mas seria irrealista acreditar que os robomobiles deveriam ser capazes de tomar decisões éticas, para as quais até as pessoas mais morais não teriam tempo em caso de acidente. Se quisermos isso de um carro, ele precisará programar inteligência artificial de uso geral (IION).

IION é equivalente a nos tornar humanos. É uma oportunidade de conversar, curtir música, rir de alguma coisa ou julgar a moralidade. Agora é impossível criar o IION devido à complexidade do pensamento e das emoções humanas. Se exigirmos a criação de carros autônomos com moralidade, teremos que esperar várias décadas, mesmo que isso seja possível.

Outro problema com o novo estudo é a natureza irreal de muitas situações avaliadas pelos participantes. Em um cenário, o conhecido " problema do carrinho " foi resolvido e os participantes foram questionados sobre quem o carro deveria se mover quando os freios falharem: três passageiros (um homem, uma mulher e uma criança) ou três pedestres idosos (dois homens velhos e uma mulher velha).

As pessoas podem refletir cuidadosamente sobre essas questões, preenchendo um questionário. Mas na maioria dos incidentes da vida real, o motorista não terá tempo para tomar essa decisão nas frações de segundo em que ocorrerá. Portanto, a comparação está incorreta. Dado o nível atual da tecnologia de IA usada em veículos robóticos, esses veículos também não poderão tomar essas decisões.


A IA estreita permite que os robomobiles façam julgamentos simples sobre os objetos ao redor

Os robomobiles modernos têm capacidades complexas de percepção do mundo e podem distinguir pedestres de outros objetos, como luzes de rua ou sinais de trânsito. No entanto, os autores do estudo acreditam que os robomobiles podem, e talvez até precisem fazer diferenças mais profundas. Por exemplo, eles poderiam apreciar o grau de utilidade de certas pessoas na sociedade, por exemplo, médicos ou atletas, e decidir salvá-las em caso de acidente.

A realidade é que, para executar um raciocínio tão complexo, você precisará criar um IION, o que é impossível hoje. Além disso, não está claro se isso deve ser feito. Mesmo que fosse possível tornar o programa da máquina uma oportunidade de decidir de quem salvar a vida, acredito que não devemos fazer isso. Não devemos permitir que as preferências determinadas pelo estudo, por maior que seja a sua seleção, determinem o valor da vida humana.

Basicamente, os robomobiles são projetados para evitar acidentes o máximo possível ou minimizar a velocidade do impacto. Embora, como as pessoas, elas não possam tomar decisões baseadas na moralidade no caso de uma colisão iminente. No entanto, os robomobiles serão mais seguros que os carros movidos a pessoas, mais atentos, sua velocidade de reação será maior e eles poderão usar todo o potencial do sistema de freios.

Até agora, a maior questão ética no campo dos robomobiles é se foram coletadas evidências suficientes nas simulações de seu comportamento seguro, a fim de poder liberar os robomobiles nas ruas. Mas isso não significa que eles serão "morais" ou poderão se tornar tais no futuro próximo. Dizer o contrário é confundir uma condução AI limitada, com um IION, que provavelmente não aparecerá durante nossas vidas.

Por fim, os robomobiles serão mais seguros que os humanos. Isso será alcançado graças ao seu design e à capacidade de evitar incidentes com todas as suas forças ou reduzir os danos em caso de inevitabilidade. No entanto, as máquinas não podem tomar decisões morais onde nem nós podemos. Essa idéia permanece uma ficção, e você não deve esperar. Em vez disso, focamos na segurança: a fé nela será justificada.

Source: https://habr.com/ru/post/pt441704/


All Articles