
L'Union américaine des libertés civiles (ACLU) poursuit sa campagne contre l'utilisation des systèmes de reconnaissance faciale par les agences fédérales et la police. L'ACLU insiste sur le fait que la qualité de ces systèmes est trop mauvaise pour une utilisation réelle. En conséquence, il y aura de nombreux faux positifs, qui feront souffrir des innocents. En essayant de convaincre le Congrès américain d'interdire l'utilisation de ces systèmes, les défenseurs des droits humains ont pris une mesure audacieuse mais efficace: ils ont traversé le système de reconnaissance faciale
Amazon Rekognition de tous les membres du Congrès américain. Le résultat était un peu prévisible: le système a
reconnu 28 membres du Congrès comme des criminels . Photos des "héros" dans la capture d'écran ci-dessus.
Amazon fait la promotion agressive de son système de reconnaissance faciale. Récemment, on a appris que la société avait
conclu des contrats avec des unités de police du comté de Washington, de l'Oregon et de la Floride. Le PDG de la société, Jeff Bezos, positionne Rekognition comme un outil efficace pour la reconnaissance faciale en temps réel, y compris le flux vidéo provenant de caméras vidéo portables sur un uniforme de police.
Cela rappelle le système qui a
commencé cette année
à être testé dans certaines villes de Chine, dont la ville de Zhengzhou (province du Henan à l'est du centre de la Chine). Là, les policiers ont reçu des lunettes spéciales avec des caméras vidéo, qui sont également connectées à un logiciel de reconnaissance faciale.

Des gadgets ont d'abord été donnés aux policiers de la circulation qui travaillent à la gare animée de Zhengzhou East, car la plupart des gens passent devant leurs yeux. Les lunettes sont spécialement conçues pour la police et connectées à un ordinateur de poche. Après avoir scanné le visage d'un passant, l'ordinateur se connecte à une base de données centrale, où les correspondances sont recherchées. L'expérience a prouvé son efficacité: le 6 février, la police a réussi à identifier sept fugitifs accusés de s'être cachés des lieux d'un accident et de la traite d'êtres humains.
Mais en Chine, la protection des droits de l'homme est plus clémente: il y a déjà
170 millions de caméras de surveillance fonctionnant dans les rues et connectées à un système de reconnaissance faciale unique. Les faux positifs ne dérangent personne, surtout si le système aide à attraper de vrais criminels.
Mais les militants américains des droits de l'homme pensent que les faux positifs prouvent que le système n'est pas encore prêt à être utilisé.
Les résultats des tests ACLU ont montré que Rekognition a pris par erreur des images de 28 membres du Congrès innocents pour des criminels. Il est intéressant de noter que les réponses incorrectes sont déformées vers les personnes dont la peau est noire. Parmi les membres du Congrès «affectés», il y en a 39%, bien qu'en réalité les membres du Congrès noirs ne représentent que 20% de la chambre basse du Parlement. Ces résultats confirment les inquiétudes des groupes noirs dans une
lettre du Congressional Black Caucus à Amazon selon laquelle l'utilisation de la reconnaissance faciale peut avoir des «conséquences involontaires négatives profondes» pour les Noirs, les migrants irréguliers et les manifestants. En fait, il y a des signes que le système est plus susceptible de faire des erreurs lors de la comparaison des visages noirs, en particulier des femmes.
Mais en général, tout le monde est tombé sous la main - démocrates, républicains, hommes et femmes, de tous âges, de différentes régions du pays. Tous sont tombés dans le nombre d'erreurs système.
Les représentants de l'ACLU croient que chaque faux positif mettra en danger la liberté humaine. Un policier peut avoir un parti pris contre une telle personne en la soumettant à un interrogatoire ou à une perquisition.

La numérisation a été effectuée sur le service public Amazon Rekognition, le coût du service était de 12,33 $. Pour comparaison avec les photographies, 535 membres du Congrès et sénateurs ont choisi 25 000 photographies menottées de personnes accessibles au public. Le test a été effectué avec les paramètres par défaut. 28 erreurs signifient environ 5% de faux positifs. Théoriquement, cela peut être un bon résultat, mais s'il est appliqué à des milliers de personnes, cela signifie beaucoup de personnes innocentes qui sont recherchées en raison d'une erreur de programme.
Bien sûr, tous les résultats du programme seront vérifiés par des personnes, mais nous savons tous que de tels systèmes peuvent rapidement devenir incontrôlables et passer en mode automatique, comme cela s'est produit avec le système d'émission des contraventions pour excès de vitesse.
L'ACLU a appelé le Congrès à «introduire un moratoire» sur l'utilisation de cette technologie jusqu'à ce qu'elle commence à produire une précision acceptable.