Não tenho boca, mas tenho que gritar. Reflexões sobre IA e ética

Isenção de responsabilidade
Sou cético em relação à minha capacidade de expressar um pensamento verdadeiramente original. Provavelmente, estou longe de ser o primeiro a fazer essas perguntas, e é bem possível que algumas respostas digeríveis já tenham sido elaboradas nelas. Portanto, digitando este texto, não espero sua surpresa ou admiração. Espero que as pessoas familiarizadas com a filosofia moderna da consciência cheguem ao comentário e me dêem links para o trabalho de pensadores sérios com sobrenomes engraçados na Alemanha.

imagem

Há não muito tempo, havia um post sobre Habré, comentários nos quais me fez pensar em várias questões interconectadas. Quero compartilhar os resultados desses pensamentos (ou a falta deles, aqui está como parecer) com a comunidade.

O que é dor?


Uma vez eu tive uma dor de dente. Eu estava deitado no sofá e tentei não prestar atenção. Eu pensei que a dor é apenas um sinal entrando no meu cérebro. O mesmo sinal que a presença ou ausência de tensão na fiação que vai ao conector PS / 2 da unidade de sistema. Por si só, ele não carrega nenhuma semântica, é a minha consciência que escolhe como interpretá-la. Se eu parar de percebê-la como dor e, em vez disso, a ignorar ou apenas "tomar nota", ficará mais fácil para mim.

Mas não ficou mais fácil. De uma maneira tão simples, descobri que os qualia têm dor e não se resumem a uma simples transferência de informações.

Como entendemos que isso machuca os outros?


Eu não sou especial em neurofisiologia, mas eles dizem que há algum tipo de neurônio-espelho no cérebro. Quando vemos como outra pessoa executa certas ações, os neurônios-espelho realizam sua engenharia reversa. Estamos tentando entender o que deve acontecer na cabeça dessa pessoa para que ela se comporte dessa maneira. E até certo ponto, até nós mesmos começamos a sentir o que, de acordo com nossas suposições, ele deveria sentir. Minhas maçãs do rosto podem ser reduzidas ao ver alguém comendo um limão. Se alguém, por exemplo, grita, chora, se contorce, rola no chão ... É provável que esse alguém esteja sofrendo. Muito provavelmente, será desagradável para mim ver essa visão. Vou começar a simpatizar com essa pessoa e, se estiver ao meu alcance, até tomar alguma ação para parar a dor. Malditos neurônios-espelho.

De fato, não temos garantia de que a outra pessoa esteja realmente sofrendo. Por exemplo, pode ser um simulador, um ator, como no experimento Milgram . No entanto, isso pode ser facilmente descoberto colocando o simulador no tomógrafo e vendo quais partes do cérebro estão atualmente ativas. No entanto, esse também é um comportamento, embora um nível mais "baixo". Como resultado, tudo se resume a um critério muito simples (eu diria muito simples): acreditamos que uma pessoa experimenta dor se ela se comporta como se nós sentíssemos dor .

Como entender que a outra pessoa é uma pessoa?


Existe um experimento de pensamento tão famoso chamado zumbi filosófico . Sua essência é simples: imagine algo que se comporte absolutamente indistinguível de uma pessoa do ponto de vista de um observador externo, mas é completamente desprovido de experiência subjetiva. Se você o picar com uma agulha, ele dirá "ah" (ou algo menos censurado), puxará a mão para trás, seus músculos faciais correspondentes se contrairão e até o tomógrafo não será capaz de pegá-lo. Mas, ao mesmo tempo, não sente nada por dentro. Ele simplesmente não tem esse "interior". Tal coisa é chamada de "zumbi filosófico", e a essência do experimento é que a existência dessa criatura hipotética não leva a contradições óbvias. Ou seja, parece possível .

Voltando à pergunta anterior, realmente não temos nenhuma oportunidade confiável para descobrir se a outra pessoa está sofrendo como um qualia. Podemos ouvir nossos neurônios-espelho ou, se isso não for suficiente para nossas mentes sofisticadas, usar a navalha de Occam. Dizer que o "zumbi filosófico" é uma entidade extra. É muito mais lógico supor que todas as pessoas são mais ou menos iguais do que assumir o contrário, sem nenhuma razão clara para isso. No entanto, o princípio Occam ainda é uma lei heurística, e não imutável. As entidades que nos pareciam supérfluas ontem entram hoje em nossa casa, abrindo a porta com os pés. Se você não concorda, tente imaginar como a mecânica quântica seria explicada a Demócrito.

Os andróides sonham com racks elétricos?


No primeiro comentário sobre o post que escrevi acima, o seguinte pensamento foi expresso pelo usuário do NeoCode :
Antes de tudo, uma "IA forte" não é uma criatura viva e não será capaz de sentir dor ou solidão, simplesmente porque sua natureza é inicialmente diferente, não possui milhões de anos de evolução e seleção natural e, portanto, - mecanismos e programas biológicos de baixo nível. Ele nem terá o instinto de autopreservação, a menos que você programe especificamente, é claro. Mas em sua forma pura - não será; você pode criar uma IA com consciência e capaz de resolver problemas complexos e aprender, sem ter o instinto de autopreservação em geral.
Este é um ponto importante que, por algum motivo, muitos não entendem, por padrão, "humanizando" a inteligência artificial.

Nisso, é claro, existe um núcleo racional. As qualidades humanas não podem ser transferidas sem pensar para uma IA hipotética. Nesse sentido, 95% da ficção científica e 99,9% dos habitantes são irremediavelmente ingênuos. Mas quero dizer o seguinte: também não priva a IA das qualidades humanas sem pensar. Alguns deles podem ser mais fundamentais do que se poderia esperar.

Considere esta situação hipotética: para que a IA faça o que precisamos, e não o que deseja (e pode ser mais "interessante" resolver o sudoku do que se envolver em nosso projeto, que está prestes a ter um prazo) , adicionamos um sinal de entrada especial a ele, de modo que o objetivo principal da IA, o principal componente de sua função objetivo, é minimizar esse sinal. Assim, quando o prazo se aproxima, pressionamos o pedal, a tensão é aplicada aos fios e a IA começa a pensar ativamente em como remover essa tensão. E quanto mais ativo, mais pressionamos. E como a pressão do pé no pedal está associada a um projeto incompleto, a IA não tem escolha a não ser concluir esse projeto. Bem, ou para hackear um zangão militar que passa voando para que nocauteie o cérebro do operador do pedal. Quem sabe, essa IA forte.

No entanto, eu estava distraído. Diga-me, esse sinal hipotético acidentalmente não o lembra de nada? É possível, neste caso, dizer que a IA está sofrendo?

Homem para homem é um lobo, e zumbis são zumbis zumbis


Como podemos entender se a IA está enfrentando qualia? No caso dos zumbis filosóficos, a empatia e a navalha de Occam estavam do nosso lado. No entanto, a IA é filosófica, mas não zumbi. Ou seja, faz sentido levantar essa questão em relação a ele, mas ele não é humano. Portanto, não podemos dizer que ele sente algo, apenas por analogia conosco.

Alguém (como, por exemplo, o autor do comentário citado acima) dirá que podemos dizer com segurança o contrário. Que não há razão para acreditar que a IA realmente está sofrendo, e se não, então não pensaremos isso. Gostaria de responder da seguinte forma: Imagine que um pensamento, sentimento, mas um ser completamente desumano o criou. Que motivos ele teria para acreditar que você está enfrentando qualia? A menos que, é claro, essa criatura não tenha a capacidade transcendental de realmente se encaixar na cabeça de outra pessoa; alegoricamente falando, torne-se um morcego . No entanto, isso já está além do escopo de nossa analogia e entra na categoria de conversas sobre o divino.

Chauvinismo antrópico


Em todos os parágrafos anteriores, falamos sobre dor. A dor é uma das, digamos, as variedades mais características das sensações humanas. No entanto, quem disse que tudo se limita ao homem?

Se uma mente alienígena hipotética (em geral, mesmo que não seja artificial, alienígena ou o que seja) é, em princípio, capaz de experimentar qualia, ela pode ser fundamentalmente diferente daquela que uma pessoa está experimentando. Um exemplo grotesco: a IA do bebê chega ao seu pai-cientista e diz que ele está experimentando alguma coisa . Isso é bom ou ruim? Ele deveria receber um doce como recompensa, dar um tapinha na cabeça em consolo ou até colocar um cinto elétrico, porque não há nada aqui?

Em todos os parágrafos anteriores, fiz perguntas que não foram respondidas e, essencialmente, não declararam nada. Agora, arrisco-me a afirmar: a ética humana não está pronta para tornar a mente não humana seu assunto completo . Podemos falar sobre as "questões éticas da IA", considerando a inteligência artificial como um meio pelo qual algumas pessoas fazem o bem ou o mal a outras pessoas. Mas se tentarmos pensar em questões éticas em termos de IA, simplesmente não teremos sucesso. Não é que não tenhamos resposta - nem sequer temos o aparato conceitual apropriado para fazer a pergunta corretamente. Talvez ainda não possuamos. Ou talvez essa seja uma lacuna fundamentalmente irrecuperável. E a inteligência artificial terá que desenvolver sua própria ética, se, é claro, ele precisar disso.

E então decida se vale a pena considerar uma pessoa como sujeito, hehe.

Source: https://habr.com/ru/post/pt422917/


All Articles