Algoritmos de predicción policial: cuando la delincuencia tiene sesgo

La digitalización llega a todos los estamentos de la sociedad, y la policía no iba a ser menos. Cada vez son más las policías que utilizan herramientas como PredPol, aunque se ha descubierto que los algoritmos de esas aplicaciones tienen sesgo y que no son completamente predictivas

La algorítmica desembarcó hace mucho tiempo en casi todos los sectores y el trabajo policial no iba a ser una excepción.

Ya son muchas las policías – EE. UU., Reino Unido, Alemania y Suiza – que los utilizan para mejorar la efectividad de su trabajo policial, pero también se ha descubierto que sus «predicciones» tienen sesgo.

Más de veinte años

Es el tiempo que se lleva utilizando en análisis de datos – sí, el tan cacareado Big Data – para mejorar el trabajo policial, y poco a poco han llegado a los departamentos de policía de muchos países.

Sus pioneros fueron las policías de Estados Unidos y de China, pero a ellas se han ido sumando otros muchos países, como es el caso de Reino Unido, Alemania o Suiza.

Lo que se ha descubierto es que lo algoritmos no son «neutrales», ya que tienden a penalizar a los vecindarios con menor renta per cápita, inclusive a pesar de que se intentan neutralizar esos sesgos.

Sería como la pescadilla que se come la cola: las zonas donde más arrestos policiales se producen «alimentan» el algoritmo lo que hace que aumente la vigilancia y el número de arrestos.

Mejorar el software

Algunos desarrolladores de software policial se han dado cuenta de que ese círculo vicioso se produce porque los algoritmos de las aplicaciones muchas veces únicamente se nutren de los datos de las detenciones.

Para reconducir ese sesgo, algunos programas informáticos de predicción policial, es el caso de PredPol – el más utilizado por las policías de Estados Unidos – han comenzado a nutrir el algoritmo también con las denuncias que se producen.

Como ya hemos indicado el sesgo del software hace que se extreme la presión policial sobre los barrios de menor renta, lo que supone, en el caso de los Estados Unidos, poner el acento sobre distritos poblados mayoritariamente por población afroamericana y latina.

Un sesgo difícil de manejar

Se ha descubierto que inclusive si se «alimenta» el software de predicción policial con datos de las denuncias, se siguen produciendo sesgos geográficos, que orientan a las patrullas policiales ha determinado distritos.

Eso también tiene que ver con el funcionamiento de las aplicaciones de predicción policial, que finalmente acaban generando mapas de actuación policial.

Esos mapas indican a las patrullas donde hay mayor probabilidad de que se produzca algún tipo de conducta criminal.

Uno de los primeros softwares de predicción delincuencial que se comenzó a utilizar hace más de dos décadas, y en Estados Unidos, es Akpinar, que era utilizado en 1998 por el 36% de los departamentos de policía en Norteamérica.

De hecho, en Estados Unidos fueron pioneros en la utilización de ese tipo de aplicaciones los departamentos de policía de Nueva York y de Los Ángeles.

No solo represión

Sin embargo, estas aplicaciones, o algunas de ellas no solamente tienen la función de reprimir el delito inmediato que se vaya a producir, sino que también pueden tener una función preventiva.

Eso es lo que sucede con el software que utiliza la policía de Chicago, que no solamente informa donde se va a producir un delito, sino que también determina que ciudadano puede necesitar estar bajo la tutela de los servicios sociales.

Esta dimensión sociológica es nueva y se basa en poner los medios para que nadie se vea obligado a delinquir por carecer del suficiente apoyo institucional.

Sin embargo, hasta ahora esa aproximación no ha tenido mucho éxito debido a que ni previene la delincuencia, sino que también hubo un sesgo de que hacía que la población afroamericana fuese más proclive a la ayuda social.

NOPD

En el año 2010, la mala praxis de la policía de Nueva Orleans, probada por una investigación del Departamento de Justicia, determinó la disolución de ese cuerpo de policía.

La investigación detectó graves anomalías: violación de leyes federales, brutalidad policial, uso excesivo de la fuerza y criminalización de determinados colectivos, así como un sesgo racial en las detenciones.

La nueva dirección de policía de Nueva Orleans decidió en ese momento comprar a la empresa Palantir su software de predicción policial, que estaba especializado en poner en conocimiento de la NOPD información para «barrer» el narcotráfico de las calles de la ciudad.

Lo cierto es que, en contra de lo que se creía, el software de Palantir si logró hacer disminuir la delincuencia en Nueva Orleans, sobre todo en lo que tenía que ver con los asesinatos por violencia armada.

Opacidad

Ninguna de las empresas que diseñan y comercializan software de predicción policial son amigas de exponer sus productos al escrutinio público.

Una de las razones de ello es que son conscientes que el «talón de Aquiles» de esos aplicativos es que reproducen sesgos que tienen que ver con la raza y el nivel socioeconómico de determinadas capas de la sociedad.

La deriva inquietante es que el trabajo policial repercute directamente sobre el judicial por lo que los sesgos en el software llenan las cárceles de minorías étnicas y de personas con escasez de recursos.

Desde el campo académico son muchos los estudios, algunos de prestigiosas universidades, que demuestran que impedir el sesgo en los sistemas de predicción de la delincuencia es prácticamente imposible.

De hecho, un estudio conjunto de la Universidad Carnegie Mellon y la Universidad de Texas han demostrado, después de desarrollar su propio aplicativo de predicción policial, que es imposible crear algoritmos que no tengan sesgo.

Una contratación que va a más

A pesar de ello, y pareciéndose mucho el algoritmo desarrollado en la investigación con el de la herramienta PredPol, cada año que pasa son más los departamentos de policía que confían en esa aplicación para hacer frente a la delincuencia.

 En la capital de Colombia, Bogotá, y que traba con sus propios sistemas predictivos, también se ha demostrado la existencia de un sesgo de bulto.

Como su algoritmo funciona, entre otras variables, con la cantidad de denuncias interpuestas en las comisarías, existen ciertas áreas que están intensamente vigiladas, y en otras zonas con igual o mayor delincuencia, los malandros pueden seguir actuando impunemente.

Fuente – EL PAÍS

Imagen – Jarar Shammen / Jason Lawrence / Andrew Milligan / Dan DeLuca / Office of Public Affairs / Daniel X. O’Neil / Oregon Department of Transportation / Alper Çuğun

Publicado por Gonzalo Sánchez del Pozo

Sobre todo apasionado: de las letras, de los paisajes, de los lugares insondables, de las historias, de los personajes, de las situaciones, de los mares, de las montañas. Nómada, como cantaba Franco Batiatto, "que busca los ángulos de la tranquilidad, en las nieblas del norte, en los tumultos civilizados, entre los claros oscuros y la monotonía de los días que pasan".

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Google photo

Estás comentando usando tu cuenta de Google. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

A %d blogueros les gusta esto: