
Dans certaines des plus grandes villes du monde (New York, Paris, Londres, Pékin), la police teste des systèmes de reconnaissance faciale. Cela se fait, notamment, afin de pouvoir «arracher» à la foule le visage de criminels soupçonnés d'avoir commis divers délits, de contrôler une personne et, si les soupçons sont confirmés, d'arrêter. En règle générale, l'analyse est en temps réel et, en cas de correspondance dans la base de données d'images, la police recevra une notification de la découverte d'une personne qui doit être détenue.
En Chine, grâce à un tel système, en avril de cette année, un suspect de crimes économiques a été arrêté lors d'un concert avec 50 000 spectateurs. Il s'y est rendu à 90 km de la ville dans laquelle il se cachait. Après l'arrestation, les Chinois ont admis que s'il savait quelque chose sur les capacités actuelles de la police, il n'irait jamais à un concert. Il espérait pouvoir se cacher parmi un grand nombre de personnes. Mais cela n'a pas fonctionné - le système l'a toujours détecté, les policiers ont réagi à temps et ont arrêté cet homme. Quant aux systèmes de détection de visage utilisés dans d'autres pays, cela semble leur poser problème.
En particulier, la police du Pays de Galles (Grande-Bretagne) a précédemment déclaré que l'un des systèmes testés par les forces de l'ordre
donne une énorme quantité de faux positifs - quelque chose d'environ 92%.
Maintenant, Scotland Yard a
décidé de tester l' efficacité d'un autre système déjà à Londres, dans l'espoir qu'il aidera à lutter contre la criminalité. Mais pendant plusieurs mois de tests, le système n'a donné d'avertissement qu'une seule fois - lorsque l'ordinateur «pensait» qu'un suspect dans un crime était passé dans la foule.
Il y a peut-être eu plus de faux positifs, les agents des forces de l'ordre n'ont pas donné de détails trop détaillés. Le problème est qu’aucun criminel n’a été détenu au cours de ces quelques mois. Des caméras connectées à un ordinateur essayant de reconnaître les visages des criminels ont été installées sur une passerelle piétonne à fort trafic. Scotland Yard espérait que, parmi les gens ordinaires, des criminels se cachaient, ce qui pourrait être détecté et arrêté.
Jusqu'à présent, ce ne sont que les résultats des tests préliminaires, la police s'est engagée à fournir un rapport complet une fois la phase de test terminée. Selon un représentant de la police qui fait partie de l'équipe des «testeurs», les photographies des visages de personnes auxquelles le système n'a pas répondu sont immédiatement supprimées. Les images reconnues par le système comme coïncidant de plusieurs façons avec les photographies de criminels sont supprimées après un mois - au cas où la réponse se révélerait fausse.
Cette seule réponse, qui est maintenant connue, était fausse. Le système a réagi à un homme noir qui passait. Selon la police, la différence entre la photo de cet homme et la photo du criminel de la base de police, qui a été comparée, est visible à l'œil nu - il est immédiatement clair pour la personne qu'il s'agit de personnes différentes.
Mais le plus jeune devait être nerveux. La police l'a immédiatement arrêté, l'a pris à part et a inspecté les objets trouvés lors de la perquisition. De plus, après avoir vu les documents, il s'est avéré que cette personne n'avait rien à voir avec le criminel auquel sa photo était comparée. Selon la police, le jeune homme "ne comprenait pas très bien ce qui venait de se passer et avait l'air un peu perdu".
Après cela, ils lui ont remis un livret décrivant les détails du système informatique, afin que le jeune homme reçoive plus d'informations sur ce qu'il est devenu un témoin involontaire.
Pour autant que l'on puisse comprendre, le système s'est avéré inefficace - non seulement parce qu'aucun des criminels n'a été arrêté (peut-être que les criminels ne marchent pas sur ce pont, qui sait). Mais aussi parce qu'il y avait un minimum de faux positifs.
Au Royaume-Uni, les militants s'opposent à l'installation de systèmes de reconnaissance faciale, qui considèrent cela comme une violation de leur propre droit à la vie privée et à la protection des données personnelles. Certains soutiennent de telles mesures, estimant qu’elles contribuent à lutter contre le terrorisme et la criminalité. Le fait que le système soit inefficace ne change pas l'opinion des supporters. Ils croient qu'il suffit d'affiner la reconnaissance faciale pour que tout soit comme il se doit.
À leur tour, les développeurs estiment que tester le système ne signifie rien du tout - c'était un test, ses résultats seront pris en considération et le système informatique sera modifié en fonction des résultats des «tests sur le terrain». "Nous allons examiner les résultats et obtenir les informations dont nous avons besoin pour nous et le projet lui-même", ont déclaré les développeurs.