Nélida Jiménez *
Una sentencia penal se basa en el delito cometido y puede tener en cuenta el pasado del acusado. Ahora, además, hay un nuevo elemento que los jueces de Estados Unidos podrán considerar a la hora de dictar una sentencia: el futuro. Una de las más sorprendentes innovaciones del sistema de justicia criminal de Estados Unidos en las últimas décadas ha sido la introducción de programas de software, con modelos estadísticos, que indican a jueces y fiscales cuál es el riesgo de reincidencia que presenta un delincuente.
Las evaluaciones de riesgo no son algo nuevo, más de 60 mecanismos de evaluación, con grandes variaciones entre ellos, se han venido usando en Estados Unidos a lo largo del último siglo. Modelos como el propuesto a finales de 1800 por la frenología sugerían que el tamaño y la forma del cerebro podrían predecir el comportamiento criminal. La frenología fue desacreditada más tarde como una pseudociencia, pero los criminólogos sugirieron posteriormente que el ADN, la sensibilidad al dolor o la deficiencia mental podrían predisponer a un individuo a cometer un delito.
En las últimas tres décadas, sin embargo, han sido las evaluaciones de riesgo basadas en programas de software las que han ganado presencia en el sistema judicial de Estados Unidos. En su forma más simple son cuestionarios que asignan puntos a los delincuentes en función de datos de los acusados, tales como sus antecedentes policiales o penales, y de factores demográficos como la edad, el sexo o la situación laboral. Las puntuaciones resultantes se basan en probabilidades estadísticas derivadas de comportamientos de infractores anteriores. Una puntuación baja califica a un delincuente como de "bajo riesgo" y podría dar lugar a una fianza más baja o a una situación de libertad condicional menos restrictiva. Una puntuación alta puede conducir a un seguimiento más estricto. La práctica totalidad de los tribunales de Estados Unidos recurre a la evaluación de riesgo. Alaska, el único estado que aún no usa el método estadístico, se prepara desde el pasado mes de junio para hacerlo.
Este aumento de confianza en los algoritmos de predicción se da en el contexto de un significativo crecimiento de la población reclusa en Estados Unidos. De aproximadamente 419.000 presos que tenía el país en 1983 se ha pasado a más de 2.300.000 reclusos en 2016, lo que convierte a Estados Unidos en el país con más presos del planeta. Con un porcentaje de 762 personas encarceladas por cada 100.000 habitantes, su ratio de encarcelamiento está muy por encima de países como Reino Unido, con una relación de 152 presos por cada 100.000 habitantes, Canadá con 108 y Francia con 91. Los estadounidenses ingresan en prisión por delitos como emitir cheques sin fondos o consumir drogas, delitos que en otros países rara vez merecen penas de cárcel y pasan de promedio en prisión más tiempo que los presos de otros países.
Las consecuencias económicas y sociales generadas por esta situación han llevado a los distintos estados a buscar métodos eficaces que aligeren las cárceles de reclusos. Pensilvania, por ejemplo, está luchando con un sistema difícil de manejar. Con aproximadamente 50.000 presos, tiene 2.000 personas más que camas permanentes en las cárceles estatales. Varios miles de presos más están en cárceles locales y cientos de miles están en libertad condicional. El estado gasta dos mil millones de dólares al año en su sistema penal, más del 7% del presupuesto total del estado, frente a menos del 2% de hace 30 años. Sin embargo, la tasa de reincidencia se mantiene alta: 1 de cada 3 reclusos es arrestado de nuevo o re-encarcelado al año de haber sido puesto en libertad. Estados de todo el país se enfrentan a problemas similares y muchos políticos ven la evaluación de riesgo como una solución atractiva.
La aplicación del método estadístico dentro del sistema judicial no está, sin embargo, exenta de polémica y son muchas las voces que se alzan a favor y en contra. Los defensores argumentan que favorece la racionalización de las decisiones al evaluar la información relevante de manera más eficaz que lo haría una persona. Destacan que puede reducir los niveles de encarcelamiento y los tiempos de las penas, lo que reduciría los gastos estatales y el daño social. Se apoyan, para ello, en una investigación de 1987 según la cual el análisis de riesgo puede tener una precisión de hasta el 70% a la hora de predecir la posibilidad de reincidencia delictiva. Sin embargo, aún no hay suficiente investigación sobre si los métodos estadísticos son capaces de conseguir estos objetivos e incluso el estudio de la compañía Rand, una de las investigaciones más influyentes sobre el tema, ha mostrado su escepticismo respecto a la efectividad de las evaluaciones.
Sus detractores señalan que los análisis de riesgo, calificados de "neutrales a la raza", enmascaran cómo el tema racial sigue presente en todas las facetas del sistema de justicia criminal de Estados Unidos. En 2014, el entonces fiscal general, Eric Holder, advirtió que las puntuaciones de riesgo podrían estar promoviendo juicios sesgados en los tribunales ya "que pueden exacerbar las injustas disparidades que ya son demasiado comunes en nuestro sistema de justicia criminal y en nuestra sociedad". Los críticos destacan que el algoritmo comete errores con los acusados blancos y negros pero de maneras muy diferentes: los acusados negros son falsamente identificados como futuros delincuentes casi el doble de veces que los acusados blancos. Según el Instituto Vera de Justicia, el sistema judicial estadounidense "se enfoca de manera desproporcionada en las personas de color." Los afroamericanos constituyen el 13% de la población de Estados Unidos, pero representan el 40% de las personas que están en prisión.
La misma variedad de los factores del algoritmo puede, además, inclinar la balanza hacia un lado u otro. Por ejemplo, un hombre que ha abusado de un niño durante un año puede tener una calificación de bajo riesgo si tiene un empleo estable, según advierten algunos jueces.
La aplicación de estos métodos estadísticos estaba destinada originalmente a casos de libertad condicional y de libertad vigilada, sin embargo, el alcance de estos programas es cada vez mayor debido a la progresiva sofisticación de los algoritmos empleados. Los estados de Oklahoma, Kentucky, Ohio, Pensilvania y Arizona ya han incluido el uso del análisis de riesgo también en la sentencia.
Ante esta situación los críticos plantean varias cuestiones: ¿Es justo tomar decisiones en un caso individual en función de lo que delincuentes similares hayan hecho en el pasado? ¿Es aceptable el uso de características que podrían estar asociadas con la raza, la condición socioeconómica o los antecedentes penales de los padres de una persona? En el aspecto práctico existe además una gran incertidumbre: ¿Cuál de las muchas herramientas disponibles es la mejor a la hora de ser elegida por los políticos, si se tiene en cuenta que algunas de ellas han sido creadas por empresas con fines de lucro y no desvelan su contenido?
La opacidad de los programas de software es otro aspecto criticado por los detractores, que llegan a definirlos como "cajas negras". Destacan, además, que la calidad de los algoritmos varía significativamente entre unos y otros. Hay métodos que se basan en más de 1,5 millones de casos frente a otros que sólo usan varios miles. En ocasiones, el algoritmo es construido con lo que se denomina el método "consensus", es decir, sin un conjunto de datos o prueba estadística. En ese caso, los jueces y especialistas en justicia penal se ponen de acuerdo sobre un conjunto de variables que, en su opinión, son importantes en la estimación del riesgo de un delincuente.
El Departamento de Justicia de Estados Unidos ha advertido a la Comisión de Sentencias que no confíe demasiado en los análisis de riesgo, pero las distintas jurisdicciones están ansiosas por abrazar fórmulas que les ahorren miles de millones de dólares en su sistema penitenciario.
Mientras el debate continúa, queda en el aire la preocupación por el uso de métodos evocadores de una realidad cercana a la de Minority Report. ¿Es correcto encerrar a alguien por un crimen que podría cometer en el futuro?
Muy interesante este escrito que muestra como el mal uso de las tecnologias de aprendizaje automatico (machine learning) pueden llevarnos a un panorama poco deseable. Una cosa es un sistema de recomendación de productos de compra y otra muy diferente es condenar a un ser humano por el comportamiento de la media. Defendamos la varianza !