Há vários meses, o Google luta com a Microsoft e a Amazon pelo
contrato de vários milhões de dólares do
Pentágono para serviços em nuvem e sistemas de inteligência artificial (veja o
vazamento da correspondência interna dos principais gerentes ). Infelizmente para orientação, os paus são inseridos nas rodas ... por nossos próprios funcionários. Em março de 2018, eles começaram a
coletar assinaturas contra o desenvolvimento de tecnologia militar no Google, que
anteriormente tinha o princípio "Não seja mau" como seu lema principal.
A administração teve que fazer concessões parcialmente. Ontem, Sundar Pichai, CEO,
anunciou um conjunto de princípios aos quais o Google promete seguir. Entre eles está a proibição do uso de desenvolvimentos internos no campo da Inteligência Artificial para armas, vigilância ilegal e tecnologias que causam "danos comuns". Mas o Google continuará a colaborar com os militares em outras áreas. Assim, a divisão de nuvens ainda mantém as chances de ganhar a licitação.
UAV militar americanoSundar Pichai escreveu em um blog oficial que o Google está investindo pesadamente em pesquisa e desenvolvimento de IA, tornando essas tecnologias amplamente acessíveis a todos que usam ferramentas e código aberto. “Reconhecemos que uma tecnologia tão poderosa levanta questões igualmente sérias sobre seu uso. A maneira como a IA é desenvolvida e usada terá um impacto significativo na sociedade por muitos anos, diz o CEO. "Como líder em IA, sentimos uma profunda responsabilidade." Portanto, hoje anunciamos os sete princípios de nosso trabalho. Estes não são conceitos teóricos; esses são padrões específicos que gerenciarão ativamente nossa pesquisa e desenvolvimento de produtos e influenciarão nossas decisões de negócios. ”
Então, aqui estão sete dos princípios de IA do Google de forma abreviada.
1. Benefícios sociais
As conquistas da IA terão um impacto transformador em uma ampla gama de áreas, incluindo saúde, segurança, energia, transporte, fabricação e entretenimento. Considerando o potencial desenvolvimento e uso de tecnologias de IA, a empresa levará em consideração uma ampla gama de fatores sociais e econômicos e atuará onde os benefícios prováveis gerais excederem significativamente os riscos e desvantagens projetados.
2. Combate à discriminação
Os algoritmos e conjuntos de dados de IA podem refletir, reforçar ou reduzir a discriminação. O Google reconhece que nem sempre é fácil distinguir preconceito injusto e que difere em diferentes culturas e sociedades. A empresa promete "se esforçar para evitar consequências injustas para as pessoas, especialmente aquelas associadas a características sensíveis como raça, etnia, gênero, nacionalidade, renda, orientação sexual, habilidade e crenças políticas ou religiosas".
3. Segurança
Os sistemas de inteligência artificial do Google serão "adequadamente protegidos" e projetados "de acordo com as práticas recomendadas no campo da pesquisa em segurança de inteligência artificial".
4. Responsabilização
Os sistemas de IA fornecerão oportunidades apropriadas para feedback, explicações relevantes de suas ações e possíveis recursos. O homem manterá o controle sobre eles.
5. Princípios de privacidade
O Google promete usar seus princípios de privacidade no desenvolvimento e uso da tecnologia de IA, além de garantir transparência e controle adequados sobre o uso de dados.
6. Altos padrões de excelência científica
A inovação tecnológica surge de um método científico e do compromisso com a investigação aberta, rigor intelectual, integridade e cooperação. As ferramentas de IA têm o potencial de desbloquear novas áreas de pesquisa e conhecimento em áreas críticas, como biologia, química, medicina e ciência ambiental. O Google promete buscar altos padrões de excelência científica, compartilhar o conhecimento de IA de forma responsável, publicar materiais de treinamento, práticas recomendadas e pesquisas que permitam que mais pessoas desenvolvam aplicativos úteis de IA.
7. Forneça tecnologia de IA apenas para aqueles que aderem a esses princípios.
Muitas tecnologias têm usos duplos, incluindo IA. O Google promete trabalhar na limitação de aplicativos potencialmente prejudiciais ou ofensivos, além de avaliar seu uso provável.
Sundar Pichai citou uma lista de tecnologias que são inaceitáveis para a inteligência artificial do Google.
- Tecnologias que causam ou podem causar danos gerais.
- Armas ou outras tecnologias, cujo principal objetivo ou implementação é causar ou aliviar diretamente danos às pessoas.
- As tecnologias que coletam ou usam informações de vigilância violam os padrões internacionalmente reconhecidos.
- Tecnologias cujo objetivo é contrário aos princípios universalmente reconhecidos do direito internacional e dos direitos humanos.
De certa forma, esses princípios se assemelham às leis da robótica de Asimov. Espera-se que outras empresas de sistemas de IA também anunciem formalmente seu compromisso com esses princípios e as cumpram.