Hace unas semanas, en Detroit, el afroamericano Robert Williams fue arrestado tras ser acusado de robar en una tienda unos meses antes. El hombre fue identificado a través de un software de reconocimiento facial. Pero era la persona equivocada, algo que se podía ver claramente. Bien, un ojo humano lo podía ver claramente, un algoritmo no. En medio del ‘Black Lives Matter‘, esta historia es emblemática, y enciende aún más las dudas sobre estas tecnologías.
Williams descubrió por casualidad que su acusador era un ordenador, cuando uno de los investigadores lo dijo durante el interrogatorio. El dueño de la tienda había entregado las imágenes de sus cámaras de vigilancia a la policía. El sistema de reconocimiento facial utilizado encontró una correspondencia con la cara de Williams en una foto antigua de su carnet de conducir. Dos semanas después del arresto, el acusado compareció ante el tribunal y el caso fue desestimado por falta de pruebas.
La policía de los Estados Unidos emplea el reconocimiento facial desde hace más de dos décadas. Diferentes estudios académicos y gubernamentales han demostrado que su nivel de error en la identificación de personas negras es más frecuente que en el análisis de caras blancas. Según varios expertos entrevistados por el ‘New York Times‘, los fallos de este tipo son comunes. Pero es difícil que salgan a la luz. En este caso, los detectives, después de darse cuenta de la equivocación, admitieron abiertamente que “el ordenador debe haber cometido un error». Con toda evidencia, el problema no radica tanto en el procesamiento incorrecto del algoritmo sino en los que decidieron usar una herramienta tan inexacta como base para una detención.
Wrongfully Accused by an Algorithm https://t.co/9Qm1f9m4k6
— Charles M. Blow (@CharlesMBlow) June 25, 2020
Un freno al reconocimiento facial
La política local y los ciudadanos están comenzando a luchar contra el uso indiscriminado de esta tecnología. A principios de junio, la ciudad de Boston prohibió el uso del reconocimiento facial por parte del gobierno. Ya es la cuarta ciudad del estado de Massachusetts en hacerlo. San Francisco, Alameda, Berkeley y Oakland también han aprobado leyes similares.
Una moratoria nacional, anunciada en las últimas semanas por miembros del Congreso de los Estados Unidos, activaría una prohibición indefinida al uso del reconocimiento facial por parte de las agencias federales, estatales y locales. «Entre el riesgo de caer en un estado de vigilancia del que no podemos escapar, y los peligros de perpetuar la discriminación racial, esta tecnología no está lista para su uso», dijo a ‘CNET’ el senador demócrata Jeff Merkley.
El movimiento de protesta sucesivo al asesinato de George Floyd ha hecho que algunas tecnológicas se enfrentaran a sus contradicciones. De hecho, a la vez que expresaban solidaridad con el movimiento, vendían servicios y productos utilizados por la policía para monitorear y reprimir a esos mismos manifestantes. Frente a esta situación, Amazon, Microsoft e IBM han anunciado en las últimas semanas que suspenderán las ventas de tecnología para el reconocimiento facial a las agencias policiales.
Sin embargo, el gesto del Big Tech parece más simbólico, y oportunista, que efectivo. La mayoría de los departamentos de policía de EE.UU. utiliza sistemas especializados, desarrollados por pequeñas empresas. Es el caso, por ejemplo, de ClearView AI, NEC y otros, que ya han asegurado que continuarán abasteciendo las fuerzas de seguridad estadounidenses.
Protestors in Hong Kong are cutting down facial recognition towers. pic.twitter.com/bTvb8uis7V
— Jordan Sather (@Jordan_Sather_) August 24, 2019
El riesgo de una vigilancia masiva
Las agencias policiales estadounidenses cuentan con redes de cámaras de vigilancia y bodycam en dotación a los agentes. Además, pueden aprovechar los sistemas de seguridad de las grandes cadenas comerciales, así como los vídeos publicados por manifestantes y periodistas. Herramientas como la aplicación Neighbours de Ring permiten a la policía buscar las grabaciones de personas que tienen su propia cámara en áreas específicas. Al menos 1.350 agencias de policía norteamericanas usan esta aplicación, informa el ‘Washington Post’. Las autoridades estadounidenses son equipadas también con drones, lectores de matrículas y dispositivos para interceptar mensajes e identificar a los propietarios de los terminales.
Muchos acusan a los gigantes tecnológicos de que solo mencionan a los Estados Unidos para tomar sus decisiones. Entre otros, el jugador de ajedrez Garry Kasparov se pregunta si estas nuevas políticas de transparencia se aplicarán también en Rusia, China o Turquía. Por tanto, para muchos activistas, el objetivo real es que se prohíba totalmente el reconocimiento facial. Lo pide, entre otros, Amnistía Internacional.
La organización enfatiza que incluso si se resolviera el problema de la discriminación racial y se mejorara la precisión, persistirían serias dudas. Por ejemplo, con respecto al derecho a la manifestación y la privacidad. No en vano, durante las protestas en Hong Kong, los dispositivos para el reconocimiento facial se han vuelto uno de los principales objetivos de los manifestantes. Muchos creen, de hecho, que China los utiliza para controlar el comportamiento de los habitantes del territorio autónomo.
En un vídeo publicado en línea, se puede ver a un grupo de manifestantes derribando un poste de metal con un dispositivo de reconocimiento facial en la parte superior. También se aprecia a los manifestantes cubriéndose el rostro con paraguas, un símbolo de las protestas antigubernamentales, para que la policía no los identifique.
En Europa y España
La policía de Londres ha llevado a cabo 10 experimentaciones de reconocimiento facial desde 2016. Una primera evaluación independiente del sistema descubrió que los resultados fallarían en el 81% de los casos. No obstante, el Reino Unido no quiere renunciar a esta tecnología. La Comisión Europea ha presentado un Libro Blanco sobre la Inteligencia Artificial, con normas claras en ámbitos como la salud, el transporte o las actividades policiales. En este sentido, aclara que los sistemas de reconocimiento facial deben ser transparentes y trazables, además de estar sometidos a una verificación humana.
En España no existe una normativa específica y se atiene a lo que indica el Reglamento europeo de Protección de Datos (RGPD). Este se desarrolla en la Ley Orgánica 3/2018, en la que no aparece un apartado específico sobre el reconocimiento facial y la única mención a datos biométricos tiene que ver con su tratamiento. Sabemos que en España los sistemas de reconocimiento facial se usan, aunque no siempre se publicita. Últimamente ha tenido mucha repercusión el caso de Mercadona, que utiliza dicha tecnología para detectar sospechosos, delincuentes o personas que tengan prohibido el acceso. La compañía asegura que después de su elaboración las imágenes se eliminan. Aun así, la Agencia Española de Protección de Datos ha iniciado una investigación para comprobar su legalidad.
Otros ejemplos de experimentaciones con el reconocimiento facial en España se han dado en varios autobuses municipales de Madrid, o en la Estación Sur de la capital. Aena también emplea un sistema de identificación biométrica en varios de los principales aeropuertos españoles. Por su parte, según el Boletín Oficial del Estado (BOE), la Guardia Civil busca “usar un sistema de reconocimiento de personas para ayudar al control de acceso en la entrada” del festival Viña Rock.
En Nobbot | ‘Dirty data’, el gran enemigo del ‘big data’s
Imágenes | Pikrepo (portada), JMorning Brew/Unsplash