A todos nos suena familiar la figura del policía obsesionado con un asesinato o un robo que se pasa horas y horas pinchando fotos de sospechosos y dibujando flechas en un panel de corcho con el fin descubrir un detalle que le lleve a resolver el caso. Es un lugar común de la ficción policiaca.
Desde hace más de un siglo, muchos crímenes y delitos se han resuelto a base de rudimentarios mapas que daban claves para saber dónde y cuándo se cometerían y qué podían estar haciendo en ese momento los presuntos malhechores.
Hoy, esos mapas los crean los ordenadores que, gracias a algoritmos y al análisis masivo de datos y de patrones de comportamiento, son capaces de predecir lugares y momentos de riesgo y señalar a potenciales criminales. De esta forma, los cuerpos de policía de todo el mundo pueden sacar más partido a sus recursos. Sobre todo, concentrando esfuerzos allí donde el peligro es inminente. Es lo que llaman la policía predictiva.
Según un informe de la Universitat Oberta de Catalunya (UOC), el Departamento de Policía de Los Ángeles, que usa estos programas, está experimentando una caída del 20% en los crímenes año tras año y, por primera vez, una división policial experimentó un día sin crímenes.
También es conocido el caso del inspector napolitano Elia Lombardo, que durante 20 años desarrolló un algoritmo que ya está dando sus frutos. Concretamente, el sistema se llama X-law y permitió a finales de 2018 evitar un robo en Venecia.
Al fin y al cabo, los criminales son animales de costumbres. Aplican una lógica que un sistema bien entrenado puede desentrañar. Muchos actúan en la misma zona, a horas parecidas y siguiendo un mismo modus operandi, pues igualmente conocen cómo se mueven sus víctimas, las horas de cierre de los negocios o el momento en que la gente mayor retira su pensión del banco.
Toda esta información es la que maneja X-law, que avisa cada dos horas sobre dónde es más probable que se produzca un delito. De esta manera, las patrullas que lo usan han reducido sus trayectos de vigilancia de 125 a 23 kilómetros diarios.
En Chicago, la policía usa desde 2017 un algoritmo para predecir quién es más probable que empuñe un arma para disparar a otra persona. El sistema, en función de múltiples parámetros, asigna puntos a las personas registradas. La policía vigila a las que más puntos tienen.
Los algoritmos en estos casos no predicen dónde se va a producir un delito exactamente, pero sí ayudan a los cuerpos de seguridad a repartir sus efectivos de manera más eficiente para elevar las posibilidades de estar en el lugar adecuado o en sus inmediaciones en el momento de la fechoría.
Detección de denuncias falsas en España
En España, la Policía Nacional también está recurriendo a los algoritmos para hacer más eficiente y efectivo el trabajo de sus agentes. Así, ha implantado en todas las comisarías una herramienta que detecta denuncias falsas de robos. Se llama Veripol y, según sus promotores, tiene un 90% de efectividad.
El invento es obra del agente Miguel Camacho, doctor en matemáticas y que estaba harto de ver cómo un gran porcentaje de denuncias de robo, sobre todo de móviles o bolsos de gama alta, eran inventados por los denunciantes con el objetivo de cobrar el seguro de estos artículos.
Para aprovechar mejor el tiempo de los agentes y los recursos públicos, Camacho creó un algoritmo que combina las características comunes a las denuncias falsas con otras de las denuncias verdaderas. Hasta 1.000 denuncias de uno y otro tipo se analizaron para buscar patrones.
Esa investigación demostró que la gente, cuando miente, siempre lo hace de forma parecida. Los mentirosos aportan un relato vago y lleno de lagunas. Mientras que las víctimas de verdad suelen dar muchos datos y detalles. En total, la máquina analiza hasta 300 variables, como longitud del texto, estructura de las frases, número de adjetivos y pronombres…
En resumen, Camacho y un equipo de expertos cruzaron el instinto policial con el matemático para atajar un problema que está tipificado en el Código Penal (artículo 457) como delito que puede acabar en prisión si la compañía de seguros va a por todas en los tribunales.
Prevención de la violencia de género
Otro de los algoritmos que usan la Policía y la Guardia Civil en España es VioGén, que previene que un agresor reincida en casos de violencia de género. Tiene más de 30 indicadores. Se nutre de los datos que dejan en largos formularios las víctimas cuando acuden a denunciar un caso.
El programa asigna un nivel de riesgo que determina las medidas de prevención a tomar por las autoridades. No obstante, y como es comprensible, el sistema no es infalible. El 25 de septiembre del año pasado falló. Un hombre que había amenazado varias veces con asesinar a sus hijas al final cumplió su palabra. La valoración policial para ese caso era de “riesgo bajo”.
Algoritmos sí, pero no discriminatorios
Además de fallar, los algoritmos usados contra la violencia y los delitos en una sociedad plantean cuestiones éticas. Y es un desarrollo deficiente de los mismos puede estigmatizar barrios o etnias. Por ejemplo, un algoritmo entrenado con informes de policías racistas acaba teniendo sesgos también racistas. Es una polémica a la que se ha tenido que enfrentar la policía en Estados Unidos.
Para evitar abusos, los expertos recomiendan que los algoritmos se diseñen y se revisen con cuidado. Y se eviten discriminaciones por sexo, raza o clase social. También es conveniente que las personas que los usen estén entrenadas y que, por supuesto, siempre la decisión final sobre la aplicación de sus resultados la tome una persona cualificada (en este caso un policía o un juez) y no una máquina.
En Nobbot | La policía china patrulla con gafas inteligentes para identificar sospechosos
Imágenes | iStock.com/peshkov / iStock.com/scyther5 / iStock.com/vladans