Skip to content
Esta nota tiene más de un año

Unificar las causas, agilizar los trámites y las dudas sobre su uso en el futuro: ¿cómo es y qué busca el software que utiliza la justicia colombiana?

En los últimos días de agosto de 2018, la Fiscalía General de la Nación, la entidad colombiana encargada de investigar crímenes y acusar a los presuntos criminales que los cometieron, anunció en varios medios del país que comenzaría a usar un sistema de inteligencia artificial para agilizar sus labores. La Fiscalía bautizó esta herramienta como “Fiscal Watson”, en referencia al software Watson de la compañía estadounidense IBM sobre el que está montado.

En una rendición de cuentas del 30 de agosto de ese año, el entonces fiscal General, Néstor Humberto Martínez, describió al Fiscal Watson como un “sistema de inteligencia artificial para la asociación de casos a través de bases de datos no estructuradas”. Ese día Martínez también dijo que el sistema ya había tenido algunos éxitos, como por ejemplo haber logrado identificar a un “depredador sexual, gracias a la asociación de 9 casos, después de que el aplicativo revisó en tiempo real los 13 millones de denuncias que tiene la Fiscalía en su sistema SPOA” (que es el sistema que recoge información para el Sistema Penal Oral Acusatorio).

Por qué surgió, con qué fin, en qué estado de desarrollo está

En el Contrato 0326 de 2017, en el que la Fiscalía contrató a IBM para implementar esta herramienta, la entidad explica que, “en cumplimiento de sus funciones de investigación y judicialización, debe dar aplicación” a varias leyes (como por ejemplo la Ley de Justicia y Paz o la Ley de Víctimas), cada una de las cuales genera una gran cantidad de información, y por lo tanto decidió ordenar el desarrollo de una herramienta para consolidar y analizar toda esta información.

En el contrato también se explica que esta herramienta se articula con la estrategia de “Gobierno en línea” con la que el gobierno colombiano pretende ser “más transparente y más participativo gracias a las tecnologías de la información y las comunicaciones”.

Pero la Fiscalía también aclara que, en un estudio previo, encontró que “parte de las deficiencias encontradas, fue la falta de unificación en los modelos de atención y operación de los procesos de la entidad”.

 

Juan Diego Castañeda, investigador de la Fundación Karisma, una organización que busca proteger los derechos humanos en medio de las nuevas tecnologías, explica que la Fiscalía se enfrentaba a un problema que tienen muchas otras entidades colombianas: no contaba con un sistema único para consolidar toda su información.

No solo cada una de las leyes que menciona el contrato de la Fiscalía crea un sistema nuevo de información, en muchos casos los varios despachos regionales de la Fiscalía no compartían información entre ellos. Así que era prácticamente imposible que los datos que estuvieran en una parte del país le llegaran a la otra parte que los necesitara. El Fiscal Watson sería la herramienta integradora que la Fiscalía encontró como la solución a este problema.

La misma Fiscalía, en el contrato ya mencionado, dice que con Watson “se implementarán iniciativas para desarrollar, adaptar y automatizar los procesos, los sistemas de información, la estructura de datos y la plataforma tecnológica a la arquitectura planteada para optimizar los procesos institucionales y así apalancar los objetivos estratégicos de la entidad”.

Esto quiere decir que se trata, principalmente, de una base de datos digital consolidada de todos los expedientes y noticias criminales que tiene la Fiscalía (según sus propias cuentas, tiene 13 millones de registros) que antes de Watson debían procesarse “manualmente” (es decir, a través de sistemas desagregados y bases no unificadas).

Pero esta herramienta no será simplemente un repositorio, aseguran. Con ella se busca también acelerar y mejorar el procesamiento de esos datos, gracias a la automatización, en 2 frentes.

 

El primero es que la Fiscalía podrá asignarles casos automáticamente a sus fiscales (un proceso que, según dicen en varias presentaciones, antes tomaba hasta 40 días). El segundo es que la Fiscalía estará en capacidad de hacer asociaciones entre casos.

Hernán Murcia, uno de los miembros del equipo de Cognitiva, el socio estratégico de IBM en América Latina para inteligencia artificial que asistió en el diseño de los usos de Watson en la Fiscalía, explica esta capacidad: “El sistema es capaz de correlacionar los hechos de todas las denuncias de todos los delitos. Si tú fueras la persona que lee todas las denuncias que le llegan a la Fiscalía y ves que en varias denuncias se ve que una persona gorda con chaqueta roja robó un celular en la Carrera 7 con Calle 67, automáticamente estarías haciendo en tu mente una correlación de los hechos que te están contando”.


 

Es decir que el sistema logra crear asociaciones entre información que, si fuera procesada por humanos, quizás no serían tan evidentes bien sea por el tamaño de los datos o por la falta de conexión entre sistemas informativos. “Esto es lo que el sistema puede hacer automáticamente, correlacionar todos esos hechos”, aclara Murcia, “es un volumen de más de 5 mil denuncias diarias”.

Por su parte, Luis Enrique Aguirre, el director de Planeación y desarrollo de la Fiscalía, explicó en un video de diciembre de 2018 que “es imposible, de manera manual, hacer asociaciones. Si hay un caso que se presenta hoy en día como, por ejemplo, el que sucedió con el ‘violador de Ibagué’, era imposible que alguien recordara de memoria 10 años de sucesos de este estilo”.

 

Los resultados

Martínez dio el mismo ejemplo que citó Aguirre en su video como caso de éxito. En 2018, la Fiscalía usó su nuevo software (que comenzó a ser implementado en las seccionales de Bogotá, Cali, Bucaramanga e Ibagué en julio de ese año) para relacionar a una persona denunciada con denuncias previas.

En abril de 2018, un hombre llamado Walter Matiz Ramírez fue denunciado en el municipio de Honda, Tolima, por abuso sexual (Ibagué es la capital del departamento del Tolima, por lo que Aguirre mencionó esta ciudad en su intervención). Tras recibir esta denuncia, el Fiscal Watson comparó el modus operandi, las características morfológicas del victimario, los vehículos, los números de teléfono de este caso con las demás entradas en su sistema y los relacionó con los datos de otras 9 denuncias por abuso sexual en varios municipios.

Tras este proceso, la Fiscalía acusó a Matiz de ser el responsable en todos los casos relacionados, que databan desde 2009. Luego, un juez decidió encarcelar a Matiz mientras esperaba una decisión judicial en su caso.

Este es el caso que más se ha repetido como ejemplo del éxito de la implementación del sistema. Ha habido otros, como un caso en el que al comparar reclamos por dinero del sistema de salud se identificó un desfalco de 724 mil millones de pesos (o unos US$ 210 millones). También se publicitó otro caso en el que, gracias a la asociación de datos que hizo Watson del modus operandi de varias denuncias, se desmanteló a una red de personas que engañaban a sus víctimas diciéndoles que tenían “caletas” (o dinero escondido) de la desmovilizada guerrilla de las Farc para llevarlos a un lugar aislado y luego robarlos.

Sin embargo, Aguirre dice que ha habido más de 500 casos de éxito. Según el acta de liquidación del contrato entre la Fiscalía e IBM, el proceso completo de diseñar, desarrollar e implementar esta herramienta tuvo un costo de 10.243 millones de pesos, lo que equivale a unos US$ 3 millones a cambio de diciembre de 2019. El presupuesto anual de la Fiscalía en 2019 fue de 24,7 billones de pesos, lo que equivale a 7.318 millones de dólares.

Los planteos que hacen organizaciones de derechos civiles

Aunque los expertos consultados están de acuerdo en que Watson, en general, es una herramienta necesaria, algunos de ellos expresaron preocupación por los nuevos sistemas que se puedan implementar gracias a la información consolidada en el flamante “Fiscal”. En particular, hay preocupación por Prisma, una herramienta que la Fiscalía presentó en mayo de 2018, pero sobre la cual se ha compartido poca información.

Joan López, otro investigador de la Fundación Karisma, dijo que a 2019 lo único que se conocía del proyecto es una presentación que compartió la Fiscalía. A enero de 2020, en una respuesta que le dieron a la fundación, la entidad dijo que el proyecto todavía no estaba activo mientras se hacían pruebas, protocolos de capacitación, metodología de implementación y evaluación de impacto de Prisma.

 

En la presentación a la que hace referencia López, la Fiscalía explicó que Prisma es una herramienta “para lograr de manera más efectiva que personas con alto riesgo de reincidencia criminal sean cobijadas con medida de aseguramiento”.

Daniel Mejía, quien era el director de Políticas y estrategias de la Fiscalía durante el lanzamiento de Prisma, explicó su funcionamiento: “Cuando una persona es capturada y se le imputan cargos, un juez debe decidir si a esa persona se le otorga una medida de aseguramiento”, es decir, el juez dispone si esa persona debe esperar en la cárcel (o en detención domiciliaria) mientras se resuelve su situación judicial, o si puede esperar en libertad.

“El principal argumento que se da para otorgar esas medidas de aseguramiento”, dice Mejía, “es el riesgo de reincidencia”, es decir el riesgo de que alguien acusado de un crimen cometa otro crimen. Prisma usa machine learning para calcular ese riesgo de reincidencia.

Según explica Mejía, Prisma toma información de las bases de datos de la Fiscalía, la Policía y el Instituto Nacional Penitenciario y Carcelario (INPEC). Con esos datos arma una “hoja de vida criminal” de cada persona que está analizando y, a través de un algoritmo, “en 4 segundos” le aporta los datos sobre el riesgo de reincidencia de una persona a los jueces, para que ellos tengan información más exacta sobre la cual tomar sus decisiones. De esta manera, Prisma busca que se eviten 2 errores: que se les otorguen medidas de aseguramiento a personas con bajo riesgo de incidencia y que se deje en libertad a personas con alto riesgo de reincidencia.

Mejía enfatiza que el proyecto por ahora tan solo es un piloto que fue probado en junio durante un mes en 5 seccionales de la Fiscalía, y que no busca reemplazar a los jueces, tan solo entregarles mejores herramientas. Por ahora no es claro si el piloto se volverá a implementar, o si se convertirá en un programa más grande.

Los expertos consultados para esta investigación opinan que para determinar su efectividad, debería haber más discusiones públicas al respecto y sobre todo, transparencia sobre los algoritmos del sistema.

Valderrama, por ejemplo, cree que el algoritmo sobre el que se basa el sistema “debería pasar por un escrutinio público”, pues el sistema podría crear sesgos o reproducir otros sesgos que ya existan en la administración de la justicia. “Ese sesgo puede darse por las características mismas del software, o por la forma en la que se esté introduciendo la información, o por condiciones estructurales de la sociedad”, dice Valderrama.

Por su parte, López sostiene que simplificar “un universo tan complejo como la criminalidad a 3 o 4 factores individualiza el delito demasiado, lo que podría llevar a que no entendamos bien el fenómeno del delito”. Pero en cualquier caso cree que no se podría pronunciar sobre sus efectos hasta que no se conozca públicamente cómo funciona.

Según Mejía, esta fue una discusión dentro de la Fiscalía y su posición personal es que el algoritmo debería ser público, bajo ciertos protocolos. De lo contrario, “podríamos tener una situación como en Estados Unidos, donde muchas veces los algoritmos son vistos como ‘cajas negras’”.

Los dilemas hacia futuro

Los casos ocurridos en Estados Unidos pusieron en alerta a muchos investigadores de la intersección entre tecnología y justicia puesto que en los últimos años varios estudios han revelado que varios algoritmos que se usan en el sistema judicial estadounidense reproducen y amplifican sesgos racistas.

Por ejemplo, en el artículo “Machine Bias” de ProPublica de 2016 se describen varios sistemas de inteligencia artificial usados por las cortes estadounidenses para predecir futuros criminales y determinar quiénes pueden acceder a penas alternativas. Uno de ellos, desarrollado por la empresa privada Northpointe, consistentemente mostraba a las personas negras con un mayor nivel de riesgo de reincidencia, incluso cuando eran comparadas con personas blancas con historias criminales similares.

En varios de los algoritmos usados en los Estados Unidos, los sistemas no tienen en cuenta la larga historia de racismo del sistema judicial de ese país que ha generado datos sesgados. Esos datos luego son usados como la base de los análisis de inteligencia artificial y por lo tanto reproducen esos mismos sesgos.

Incluso, en algunos casos no se incluye la raza de las personas en estas bases de datos, pero sí se cargan datos que pueden ser representativos de su raza, como por ejemplo el barrio en el que viven.

Pero no es claro si este es el caso del software de Northpointe. Según ProPublica, “la compañía no publica los cálculos usados para concluir los niveles de riesgo de una persona, así que no les es posible ni a los acusados ni al público ver qué es lo que crea esta disparidad [del sistema]”. Además, en algunos casos de procesos de machine learning, sólo las máquinas entienden este funcionamiento de sus lógicas internas.

Esto es a lo que Mejía se refería con “cajas negras” y la razón por la que apoya que el algoritmo de Prisma se publique.

Juanita Durán, la actual directora de Políticas Públicas y Estrategia de la Fiscalía, aclara que aún se está haciendo una evaluación de impacto sobre el piloto ya realizado para descifrar los pasos a seguir. Así que aún no es claro si Prisma se seguirá usando o de qué manera.

Por el momento, Mejía dice que Prisma no caerá en los sesgos de los sistemas que han sido criticados en los Estados Unidos, pues las variables que entran a la “hoja de vida criminal” no registran raza, lugar de residencia, ni nada que no esté relacionado con los hechos criminales asociados a una persona (cuántas veces ha sido acusada o arrestada, por qué delitos, etc.), con una excepción: el género de la persona acusada.

 

 

¿Servirá para mejorar la justicia?

Aunque quedan muchos interrogantes sobre Prisma, lo que sabemos por ahora es que el Fiscal Watson sigue marchando y que ya está comenzando a cambiar la manera en la que se administra la justicia en Colombia.

Según Valderrama, Watson ha ayudado a mejorar el acceso de las personas al sistema de justicia y a resolver sus necesidades jurídicas, pues ayuda a “agilizar procesos que quizás de manera manual no se puedan resolver”.

Además de esto, para Castañeda tanto Watson como Prisma pueden tener un efecto positivo inesperado: “Una base de datos y un algoritmo podrían obligar a que un juez racista tenga un obstáculo más para saltar”.

 

Este artículo forma parte del proyecto “Investigación sobre inteligencia artificial en América Latina” en el que, a lo largo de 8 notas cubriendo varios países, nos enfocaremos en el campo de la ética de los algoritmos en la región y sus particularidades frente al resto del mundo. La presente serie se suma a las investigaciones que Chequeado publica desde 2017.

Fecha de publicación original: 26/07/2020

Temas

Comentarios

Valoramos mucho la opinión de nuestra comunidad de lectores y siempre estamos a favor del debate y del intercambio. Por eso es importante para nosotros generar un espacio de respeto y cuidado, por lo que por favor tené en cuenta que no publicaremos comentarios con insultos, agresiones o mensajes de odio, desinformaciones que pudieran resultar peligrosas para otros, información personal, o promoción o venta de productos.

Muchas gracias

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *