
La American Civil Liberties Union (ACLU) continúa su campaña contra el uso de sistemas de reconocimiento facial por parte de las agencias federales y la policía. ACLU insiste en que la calidad de estos sistemas es demasiado pobre para un uso real. Como resultado, habrá muchos falsos positivos, que causarán sufrimiento a personas inocentes. Al tratar de convencer al Congreso de los EE. UU. De que prohibiera el uso de estos sistemas, los defensores de los derechos humanos tomaron una acción audaz pero efectiva: condujeron a través del sistema de reconocimiento facial
Amazon Rekognition de todos los congresistas estadounidenses. El resultado fue un poco predecible: el sistema
reconoció a 28 congresistas como criminales . Fotos de los "héroes" en la captura de pantalla de arriba.
Amazon promueve agresivamente su sistema de reconocimiento facial. Recientemente se supo que la corporación ha
celebrado contratos con unidades policiales en el condado de Washington, Oregón y Florida. El CEO de la compañía, Jeff Bezos, posiciona a Rekognition como una herramienta efectiva para el reconocimiento facial en tiempo real, incluida la transmisión de video que proviene de cámaras de video portátiles con uniforme de policía.
Esto recuerda al sistema que este año
comenzó a probarse en algunas ciudades de China, incluida la ciudad de Zhengzhou (provincia de Henan en el este del centro de China). Allí, los agentes de policía recibieron gafas especiales con cámaras de video, que también están conectadas al software de reconocimiento facial.

Los artilugios se entregaron por primera vez a los agentes de la policía de tránsito que trabajan en la concurrida estación de tren Zhengzhou East, porque la mayoría de las personas pasan ante sus ojos. Las gafas están especialmente diseñadas para la policía y conectadas a una computadora de mano. Después de escanear la cara de un transeúnte, la computadora se conecta a una base de datos central, donde se buscan coincidencias. El experimento demostró su efectividad: antes del 6 de febrero, la policía logró identificar a siete fugitivos acusados de esconderse de la escena de un accidente y tráfico de personas.
Pero en China, la protección de los derechos humanos es más indulgente: ya hay
170 millones de cámaras de vigilancia operando en las calles que están conectadas a un solo sistema de reconocimiento facial. Los falsos positivos no molestan a nadie, especialmente si el sistema ayuda a atrapar criminales reales.
Pero los activistas estadounidenses de derechos humanos creen que los falsos positivos son evidencia de que el sistema aún no está listo para su uso.
Los resultados de las pruebas de la ACLU mostraron que Rekognition tomó por error imágenes de 28 congresistas inocentes para delincuentes. Es interesante que las respuestas incorrectas se distorsionen hacia las personas con color de piel negro. Entre los congresistas "afectados" hay un 39%, aunque en realidad los congresistas negros representan solo el 20% de la cámara baja del parlamento. Estos resultados confirman las preocupaciones de los grupos negros en una
carta del Caucus Negro del Congreso a Amazon de que usar el reconocimiento facial puede tener "profundas consecuencias negativas no deseadas" para los negros, los migrantes irregulares y los manifestantes. De hecho, hay indicios de que es más probable que el sistema cometa errores al comparar rostros negros, especialmente mujeres.
Pero en general, todos estuvieron bajo la mano: demócratas, republicanos, hombres y mujeres, de todas las edades, de diferentes regiones del país. Todos cayeron en la cantidad de errores del sistema.
Los representantes de la ACLU creen que cada falso positivo pondrá en peligro la libertad humana. Un policía puede ser parcial contra esa persona al someterlo a interrogatorio o búsqueda.

El escaneo se realizó en el servicio público de Amazon Rekognition, el costo del servicio fue de $ 12.33. Para comparar con las fotografías, 535 congresistas y senadores eligieron 25,000 fotografías esposadas de personas disponibles al público. La prueba se realizó con la configuración predeterminada. 28 errores significan aproximadamente 5% de falsos positivos. Teóricamente, este puede ser un buen resultado, pero si se aplica a miles de personas, significa muchas personas inocentes que son buscadas debido a un error del programa.
Por supuesto, todos los resultados del programa serán verificados por personas, pero todos sabemos que dichos sistemas pueden descontrolarse rápidamente y pasar al modo automático, como sucedió con el sistema para emitir multas por exceso de velocidad.
ACLU pidió al Congreso que "introduzca una moratoria" sobre el uso de esta tecnología hasta que comience a producir una precisión aceptable.