O chefe do Google acredita que o medo da IA ​​é "completamente justificado"



Sundar Pichai, CEO do Google, uma das maiores empresas que trabalham no campo da inteligência artificial, disse em uma entrevista nesta semana que os receios sobre o uso nocivo da tecnologia são "completamente justificados" - no entanto, devemos confiar na indústria de tecnologia, pois ela será capaz de toda a responsabilidade de regular seu uso.

Em uma conversa com o Washington Post, Pichai disse que as novas ferramentas de IA - a base de inovações como robomobiles e algoritmos de reconhecimento de doenças - exigem que as empresas definam uma estrutura ética e considerem cuidadosamente como essa tecnologia pode ser abusada.

"Acho que os negócios de tecnologia devem entender que você não pode criá-lo primeiro e depois consertá-lo", disse Pichai. "Eu acho que não vai funcionar."

Gigantes tecnológicos devem garantir que a IA "com seus objetivos" não prejudique a humanidade, disse Pichai. Ele disse estar otimista com os benefícios a longo prazo da tecnologia, mas sua avaliação dos riscos potenciais da IA ​​concorda com alguns dos críticos de tecnologia que afirmam que essa tecnologia pode ser usada para implementar vigilância invasiva, fabricar armas mortais e espalhar informações erradas. Outros gerentes de empresas de tecnologia, como o fundador da SpaceX e Tesla, Elon Musk, fizeram previsões mais ousadas de que a IA poderia ser "muito mais perigosa do que as bombas nucleares".

A tecnologia de inteligência artificial do Google está no centro de tudo, desde um projeto controverso de empresa chinesa a teorias de ódio e conspiração no YouTube, uma divisão da empresa. Pichai prometeu resolver este problema no próximo ano. A maneira como o Google decide usar a IA também gerou inquietação recente entre os funcionários da empresa.

O pedido de auto-regulamentação de Pichai seguiu seu discurso no Congresso , onde os parlamentares ameaçavam limitar o uso da tecnologia em resposta ao seu uso indevido, inclusive como intermediário para a disseminação do discurso de ódio e do discurso de ódio. Seu reconhecimento da existência de possíveis ameaças por parte da IA ​​foi extremamente importante, pois, anteriormente, esse programador, nascido na Índia, divulgava como as consequências da introdução de sistemas automatizados capazes de aprender e tomar decisões sem a supervisão humana mudariam o mundo.

Pichai disse em uma entrevista que os legisladores de todo o mundo ainda estão tentando perceber o efeito da IA ​​e a potencial necessidade de sua regulamentação estadual. "Às vezes me incomoda que as pessoas subestimem a magnitude das mudanças que podem ocorrer no curto e médio prazo, e acho que essas questões são realmente extremamente complexas", disse ele. Outros gigantes da tecnologia, incluindo a Microsoft, adotaram recentemente a regulamentação da IA, tanto das empresas que criaram essa tecnologia quanto dos governos que supervisionam seu uso.

No entanto, com o manuseio adequado, a IA pode fornecer "tremendos benefícios", explicou Pichai, incluindo assistência aos médicos no reconhecimento de doenças oculares e outras doenças, digitalizando automaticamente os registros médicos. "É difícil regular a tecnologia em um estágio inicial de desenvolvimento, mas acho que as empresas devem se auto-regular", disse ele. - Portanto, estamos tentando ativamente expressar o conjunto de princípios da IA. Podemos não ter feito tudo certo, mas pensamos que era importante iniciar esse diálogo. ”

Pichai, que ingressou no Google em 2004 e, depois de assumir o cargo de CEO, chamou a IA de “uma das coisas mais importantes em que a humanidade está trabalhando” em janeiro e disse que poderia ser “mais importante” para a humanidade do que “eletricidade ou eletricidade”. fogo ". No entanto, a corrida para melhorar as máquinas que podem operar por conta própria deu origem a temores familiares de que o espírito corporativo do Vale do Silício - "faça rápido, danifique", como o Facebook descreveu uma vez - poderia levar a tecnologia poderosa e imperfeita, eliminando empregos e prejudicando para as pessoas.

No próprio Google, as tentativas de criar IA também são controversas: a empresa enfrentou uma série de críticas este ano devido ao trabalho em um contrato para o Departamento de Defesa, segundo o qual a IA, capaz de marcar automaticamente carros, edifícios e outros objetos, será usada em drones militares. Alguns funcionários até desistiram, chamando a razão disso para os ganhos da empresa no "negócio militar".

Pichai, em resposta a perguntas sobre essa reação dos funcionários, disse ao jornal que esses trabalhadores eram “uma parte importante da nossa cultura. Eles têm a oportunidade de dizer sua palavra, e isso é importante para a empresa, é isso que valorizamos ”, afirmou.

Em junho, após o anúncio, onde a empresa disse que não renovaria esse contrato, Pichai revelou um conjunto de princípios éticos ao criar a IA, que incluiu a proibição de desenvolver sistemas que pudessem ser usados ​​para causar danos, violar direitos humanos ou ajudar a monitorar pessoas ". em violação dos padrões internacionalmente aceitos ".

A empresa foi criticada por liberar para uso geral ferramentas de IA que podem ser usadas em detrimento. Lançado em 2015, o pacote de software TensorFlow, sistema interno de aprendizado de máquina do Google, ajudou a acelerar o desenvolvimento maciço da IA, mas foi usado para automatizar a criação de vídeos falsos, que foram usados ​​para desinformar e assediar.

Google e Pichai defenderam pessoalmente o lançamento, argumentando que restringir a expansão da tecnologia significaria que o público não a controlaria com cuidado suficiente, e desenvolvedores e pesquisadores não poderiam melhorar suas capacidades para que isso a beneficiasse.

"Acredito que, com o tempo, desenvolvendo com sucesso a tecnologia, é importante discutir questões éticas e preconceitos cognitivos e desenvolvê-la ao mesmo tempo", disse Pichai em entrevista.

"Em certo sentido, queremos desenvolver uma plataforma ética, para atrair cientistas que não pertencem ao campo da ciência da computação em um estágio inicial de desenvolvimento", disse ele. "É necessário envolver a humanidade de maneira mais ativa, pois essa tecnologia afetará a humanidade."

Pichai comparou as primeiras tentativas de definir parâmetros de IA com os esforços da comunidade científica para limitar a pesquisa genética nos estágios iniciais desta área. "Muitos biólogos começaram a fazer distinções que indicam onde a tecnologia deve se desenvolver", disse ele. "A comunidade acadêmica adotou a auto-regulação ativa, o que, para mim, foi extremamente importante."

O diretor do Google disse que essa abordagem seria absolutamente necessária no desenvolvimento de armas autônomas - e esse problema está atormentando diretores e funcionários de empresas de tecnologia. Em julho, milhares de trabalhadores da indústria representando empresas como o Google assinaram uma petição para proibir ferramentas de IA que poderiam ser programadas para matar.

Pichai disse que considera as teorias de conspiração odiadas pelo YouTube descritas no artigo do WP "nojentas" e deixou claro que a empresa trabalhará para melhorar os sistemas que reconhecem conteúdo problemático. Nesses vídeos, cujas visualizações excederam vários milhões de vezes desde a sua aparição em abril, eles discutiram as acusações infundadas de Hillary Clinton e de seu assistente de longa data, Hume Abedin, de que atacaram a garota, a mataram e beberam seu sangue.

Pichai disse que ele próprio não viu os vídeos que foram questionados no Congresso e se recusou a informar se essas falhas do YouTube são o resultado de restrições em sistemas que reconhecem conteúdo inapropriado ou regras para avaliar a necessidade de remover vídeos. Mas ele acrescentou que "em 2019 você verá mais trabalho nesta área do nosso lado".

Pichai também descreveu as tentativas do Google de desenvolver um novo produto no segmento controlado pela China da Internet como preliminar, e não disse que tipo de produto ele poderia ser e quando poderia chegar ao mercado.

Ele é chamado de "Projeto Libélula" e provocou uma forte reação de funcionários e ativistas de direitos humanos, alertando para a possível assistência do Google na vigilância governamental de cidadãos intolerantes a dissidentes políticos. Em resposta a uma pergunta sobre a possibilidade de o Google criar um produto que permita às autoridades chinesas descobrir quando uma pessoa procura por algumas palavras sensíveis, como " massacre da Praça da Paz Celestial " , Pichai disse que é muito cedo para fazer tais julgamentos.

"Todas essas são considerações hipotéticas", disse Pichai. "Estamos terrivelmente longe desse estado de coisas."

Source: https://habr.com/ru/post/pt433236/


All Articles