
A União Americana das Liberdades Civis (ACLU) continua sua campanha contra o uso de sistemas de reconhecimento facial por agências federais e pela polícia. A ACLU insiste que a qualidade desses sistemas é muito ruim para uso real. Como resultado, haverá muitos falsos positivos, o que fará com que pessoas inocentes sofram. Tentando convencer o Congresso dos EUA a proibir o uso desses sistemas, os defensores de direitos humanos adotaram uma ação ousada, mas eficaz: eles passaram pelo sistema de reconhecimento facial
Amazon Rekognition de todos os congressistas americanos. O resultado foi um pouco previsível: o sistema
reconheceu 28 congressistas como criminosos . Fotos dos "heróis" na captura de tela acima.
A Amazon promove agressivamente seu sistema de reconhecimento facial. Recentemente, soube-se que a corporação
assinou contratos com unidades policiais no Condado de Washington, Oregon e Flórida. O CEO da empresa, Jeff Bezos, posiciona o Rekognition como uma ferramenta eficaz para o reconhecimento facial em tempo real, incluindo o fluxo de vídeo proveniente de câmeras de vídeo vestíveis em uniforme policial.
Isso lembra o sistema que este ano
começou a ser testado em algumas cidades da China, incluindo a cidade de Zhengzhou (província de Henan, no leste da China central). Lá, os policiais receberam óculos especiais com câmeras de vídeo, que também são conectadas ao software de reconhecimento de rosto.

Os aparelhos foram entregues pela primeira vez a policiais de trânsito que trabalham na movimentada Estação Ferroviária de Zhengzhou East, porque a maioria das pessoas passa diante de seus olhos. Os óculos são projetados especialmente para a polícia e conectados a um computador de mão. Depois de digitalizar a face de um transeunte, o computador se conecta a um banco de dados central, onde são pesquisadas correspondências. O experimento provou sua eficácia: em 6 de fevereiro, a polícia conseguiu identificar sete fugitivos acusados de se esconderem da cena de um acidente e tráfico de seres humanos.
Mas na China, a proteção dos direitos humanos é mais branda: já existem
170 milhões de câmeras de vigilância em operação nas ruas, conectadas a um único sistema de reconhecimento facial. Os falsos positivos não incomodam ninguém, especialmente se o sistema ajudar a capturar criminosos reais.
Mas os ativistas americanos de direitos humanos acreditam que falsos positivos são evidências de que o sistema ainda não está pronto para uso.
Os resultados dos testes da ACLU mostraram que o Rekognition erroneamente capturou imagens de 28 congressistas inocentes como criminosos. É interessante que as respostas incorretas sejam distorcidas em relação às pessoas com a cor da pele negra. Entre os congressistas "afetados", existem 39%, embora, na realidade, os congressistas negros representem apenas 20% da câmara baixa do parlamento. Esses resultados confirmam as preocupações dos grupos negros em uma
carta do Congresso ao Black Caucus à Amazônia de que o uso do reconhecimento facial pode ter "profundas conseqüências negativas não intencionais" para negros, migrantes irregulares e manifestantes. De fato, há sinais de que é mais provável que o sistema cometa erros ao comparar rostos negros, especialmente mulheres.
Mas, em geral, todos ficaram sob o controle - democratas, republicanos, homens e mulheres, de todas as idades, de diferentes regiões do país. Todos eles caíram no número de erros do sistema.
Os representantes da ACLU acreditam que todo falso positivo colocará em risco a liberdade humana. Um policial pode ser tendencioso contra essa pessoa, submetendo-a a interrogatório ou busca.

A digitalização foi realizada no serviço público Amazon Rekognition, o custo do serviço foi de US $ 12,33. Para comparação com as fotografias, 535 congressistas e senadores escolheram 25.000 fotografias algemadas de pessoas disponíveis publicamente. O teste foi realizado com as configurações padrão. 28 erros significam aproximadamente 5% de falsos positivos. Teoricamente, esse pode ser um bom resultado, mas se aplicado a milhares de pessoas, significa muitas pessoas inocentes que são pesquisadas devido a um erro no programa.
Obviamente, todos os resultados do programa serão verificados pelas pessoas, mas todos sabemos que esses sistemas podem rapidamente sair do controle e entrar no modo automático, como aconteceu com o sistema de emissão de multas por excesso de velocidade.
A ACLU instou o Congresso a "introduzir uma moratória" no uso dessa tecnologia até que ela comece a produzir uma precisão aceitável.