Preocupación por el proyecto de predicción de delitos del gobierno británico
- Jose Luis Hernandez de Arce
- hace 4 días
- 2 Min. de lectura

Una iniciativa en marcha en el Reino Unido ha encendido todas las alarmas: se trata de un sistema diseñado para anticipar quién podría cometer un delito violento con más probabilidad. Aunque sacado de la obra de ciencia ficción Minority Report, los pasos para llegar a un sistema así ya han comenzado.
Lo que inicialmente se conoció como Proyecto de Predicción de Homicidios fue rebautizado con un nombre más discreto: Gestión de Datos para la Mejora de Evaluaciones de Riesgo. El objetivo: desarrollar un algoritmo capaz de identificar a personas que, según ciertos datos, podrían llegar a cometer crímenes violentos.
Gracias a documentos obtenidos por la organización de transparencia Statewatch, se reveló que el Ministerio de Justicia británico trabaja en este sistema con el apoyo del Ministerio del Interior, la Policía Metropolitana de Londres y la Policía de Manchester.
El sistema no solo incluirá información sobre personas condenadas por delitos, sino también de sospechosos no condenados, víctimas, testigos y hasta personas desaparecidas.
El proyecto ha recopilado información de cerca de 500.000 personas, incorporando datos extremadamente sensibles como su historial de salud mental, adicciones, autolesiones, intentos de suicidio, condiciones de discapacidad y otros denominados “marcadores de salud” que, según el Ministerio, tendrían “gran valor predictivo”.
Oficialmente, se niega el uso de datos de víctimas o personas vulnerables sin condenas previas, pero la magnitud y variedad de la información recopilada plantea serias dudas sobre los límites éticos del proyecto.
No obstante, Reino Unido ya utiliza sistemas de justicia predictiva. Como el denominado Sistema de Evaluación de Delincuentes que se aplica en los juzgados a la hora de dictar sentencias para calcular la probabilidad de reincidencia. Sin embargo, se ha denunciado que estas evaluaciones muestran, en ocasiones, un sesgo negativo hacia determinadas razas, probablemente debido a su representatividad en determinados grupos marginados.
Más allá de la promesa de “prevenir la violencia antes de que ocurra”, el riesgo de un sistema así es evidente, pues implica actuar sobre las personas no por lo que han hecho, sino por lo que un algoritmo cree que podrían hacer.
El simple hecho de ser pobre, vulnerable o vivir en un barrio conflictivo podría incrementar el “riesgo algorítmico” de caulquier persona, sin que haya cometido delito alguno. Y aunque los responsables del proyecto aseguran que se incluirán salvaguardas éticas, la experiencia sugiere que los sesgos rara vez se corrigen.
Comentarios