Amazon Rekognition erkennt 28 US-Kongressabgeordnete als Kriminelle an



Die American Civil Liberties Union (ACLU) setzt ihre Kampagne gegen die Verwendung von Gesichtserkennungssystemen durch Bundesbehörden und die Polizei fort. ACLU besteht darauf, dass die Qualität dieser Systeme für den tatsächlichen Gebrauch zu schlecht ist. Infolgedessen wird es viele Fehlalarme geben, die unschuldige Menschen leiden lassen. Menschenrechtsverteidiger versuchten, den US-Kongress davon zu überzeugen, die Verwendung dieser Systeme zu verbieten, und ergriffen mutige, aber wirksame Maßnahmen: Sie fuhren durch das Gesichtserkennungssystem Amazon Rekognition aller amerikanischen Kongressabgeordneten. Das Ergebnis war ein wenig vorhersehbar: Das System erkannte 28 Kongressabgeordnete als Kriminelle an . Fotos der "Helden" im Screenshot oben.

Amazon fördert aggressiv sein Gesichtserkennungssystem. Kürzlich wurde bekannt, dass das Unternehmen Verträge mit Polizeieinheiten in Washington County, Oregon und Florida abgeschlossen hat. Jeff Bezos, CEO des Unternehmens, positioniert Rekognition als ein effektives Werkzeug für die Gesichtserkennung in Echtzeit, einschließlich des Videostreams, der von tragbaren Videokameras auf einer Polizeiuniform stammt.

Dies erinnert an das System, das in diesem Jahr in einigen Städten Chinas getestet wurde, darunter in der Stadt Zhengzhou (Provinz Henan im Osten Zentralchinas). Dort erhielten Polizisten eine spezielle Brille mit Videokameras, die auch mit Gesichtserkennungssoftware verbunden sind.



Gadgets wurden zuerst Verkehrspolizisten gegeben, die am geschäftigen Ostbahnhof von Zhengzhou arbeiten, weil die meisten Menschen vor ihren Augen vorbeikommen. Die Brille wurde speziell für die Polizei entwickelt und an einen Handheld-Computer angeschlossen. Nach dem Scannen des Gesichts eines Passanten stellt der Computer eine Verbindung zu einer zentralen Datenbank her, in der nach Übereinstimmungen gesucht wird. Das Experiment bewies seine Wirksamkeit: Bis zum 6. Februar gelang es der Polizei, sieben Flüchtlinge zu identifizieren, denen vorgeworfen wird, sie hätten sich vor dem Unfallort und dem Menschenhandel versteckt.

In China ist der Schutz der Menschenrechte jedoch milder: Auf den Straßen sind bereits 170 Millionen Überwachungskameras in Betrieb, die an ein einziges Gesichtserkennungssystem angeschlossen sind. False Positives stören niemanden, besonders wenn das System dabei hilft, echte Kriminelle zu fangen.

Amerikanische Menschenrechtsaktivisten glauben jedoch, dass Fehlalarme ein Beweis dafür sind, dass das System noch nicht einsatzbereit ist.

ACLU-Testergebnisse zeigten, dass Rekognition fälschlicherweise Bilder von 28 unschuldigen Kongressabgeordneten für Kriminelle machte. Es ist interessant, dass falsche Reaktionen gegenüber Menschen mit schwarzer Hautfarbe verzerrt sind. Unter den „betroffenen“ Kongressabgeordneten sind 39%, obwohl in Wirklichkeit schwarze Kongressabgeordnete nur 20% des Unterhauses des Parlaments ausmachen. Diese Ergebnisse bestätigen die Besorgnis der schwarzen Gruppen in dem Brief von Congressional Black Caucus an Amazon, dass die Verwendung der Gesichtserkennung „tiefgreifende negative unbeabsichtigte Konsequenzen“ für Schwarze, irreguläre Migranten und Demonstranten haben könnte. Tatsächlich gibt es Anzeichen dafür, dass das System beim Vergleich schwarzer Gesichter, insbesondere von Frauen, mit größerer Wahrscheinlichkeit Fehler macht.

Aber im Allgemeinen kamen alle unter die Hand - Demokraten, Republikaner, Männer und Frauen jeden Alters aus verschiedenen Regionen des Landes. Alle fielen in die Anzahl der Systemfehler.

Vertreter der ACLU glauben, dass jedes falsche Positiv die menschliche Freiheit gefährden wird. Ein Polizist kann gegen eine solche Person voreingenommen sein, indem er sie verhört oder durchsucht.



Das Scannen wurde im öffentlichen Dienst von Amazon Rekognition durchgeführt. Die Kosten für den Dienst betrugen 12,33 USD. Zum Vergleich mit Fotos wählten 535 Kongressabgeordnete und Senatoren 25.000 mit Handschellen gefesselte Fotos von öffentlich zugänglichen Personen. Der Test wurde mit Standardeinstellungen durchgeführt. 28 Fehler bedeuten ungefähr 5% falsch positive Ergebnisse. Theoretisch mag dies ein gutes Ergebnis sein, aber wenn es auf Tausende von Menschen angewendet wird, bedeutet dies, dass viele unschuldige Menschen aufgrund eines Programmfehlers durchsucht werden.

Natürlich werden alle Ergebnisse des Programms von Personen überprüft, aber wir alle wissen, dass solche Systeme schnell außer Kontrolle geraten und in den automatischen Modus wechseln können, wie dies beim System für die Ausstellung von Strafzettel der Fall ist.

Die ACLU forderte den Kongress auf, ein „Moratorium“ für die Verwendung dieser Technologie einzuführen, bis eine akzeptable Genauigkeit erreicht ist.

Source: https://habr.com/ru/post/de418509/


All Articles