Departamento de Derecho Penal y Criminología

Actualidad
11 de septiembre de 2024

¿Serán reemplazados los jueces por la inteligencia artificial? Parte II

La IA llegó para quedarse, así algunos todavía se resistan.

Por: Juan David Bazzani, Docente Investigador

Continuando con mi escrito de la semana pasada, seguiré con el análisis propuesto sobre los dos últimos estadios de la actividad probatoria propuestos por Jordi Ferrer Beltrán[1].

  • La valoración de los elementos de juicio o pruebas.

Aquí la cosa se pone más interesante. La valoración de la prueba es esencialmente un ejercicio de argumentación. En ello coinciden reconocidos doctrinantes, entre ellos Manuel Atienza y Robert Alexy. La valoración de la prueba supone que los hechos probados permitan construir razones que expliquen una forma coherente de la ocurrencia de los hechos. Las conclusiones se obtienen a partir de la formulación de unas premisas que se ordenan a través de la aplicación de un método ‘lógico’.

La lógica es el método más tradicional de la argumentación. Así es, tal como funciona la computación, en un esquema lógico-matemático de unos y ceros, de si y no, de verdadero o falso.

Desde la IA, las premisas son entonces segmentos de información y el método de argumentación serán los algoritmos que nos lleven a una conclusión determinada. No es descabellado pensar entonces que la IA puede hacer evaluaciones argumentales sobre la prueba y, por lo tanto, hacer un ejercicio de valoración de la prueba.  

Autores como Olbrechts-Tyteca, Perelman, Habermas, Wittenstein[2], nos han enseñado que la argumentación, para ser válida no debe seguir necesariamente modelos de razonamiento lógico-formales. No parece que la IA generativa sea aún capaz de aproximarse al razonamiento humano y parece difícil pensar que puede llegar a sustituir al juez. Sin embargo, la capacidad de aprendizaje no supervisado o aprendizaje mediante esfuerzo demuestran que la inteligencia artificial y el machine learning cada día ‘razonan mejor’ y la pregunta que queda es qué tan lejos están de ‘pensar’ de una manera similar a la humana.

La calidad de las decisiones a las que llega una máquina dependen de la información éste tenga para poder construir valoraciones y tomar decisiones. Los sesgos están atados a este contexto y de allí surge el denominado sesgo de opacidad. Para poder evitarlos, habría que construir una piscina de datos de calidad suficientemente confiable que nos permita progresivamente creer más en lo que la máquina “opina”. De hecho, se han identificado sesgos raciales en la utilización de las IA en algunas partes del mundo[3] que cuestionan aun la legitimidad de uso estos mecanismos en la justicia.

Habrá que seguir trabajando antes de llegar a un terreno confiable, pero no se puede olvidar que la mente humana también opera bajo sesgos, con lo cual pierde fuerza el argumento para descarta el uso de la IA solo por este motivo.

  • La adopción de la decisión sobre los hechos probados.

Ferrer sostiene que este es el momento en el que el juez llega a la íntima convicción sobre el hecho probado. Para esto, los estándares de prueba juegan un papel determinante. Habrá un umbral para el proceso laboral, otro para el civil y otro para el penal. Lo único cierto es que solo habrá lugar a la toma de la decisión cuando el juez este íntimamente convencido de que ha encontrado prueba suficiente para pronunciarse sobre el caso.

Este estadio depende del juez para determinar si se han demostrado las premisas fácticas planteadas por la fiscalía o las de la defensa, o las del demandante o las del demandado. Este proceso hace parte del fuero interno del juzgador. No nos parece entonces que la IA pueda usurpar esta labor.

Aunque los estándares de prueba deberían ser criterios uniformes para la adopción de la decisión judicial, hoy no existe un criterio intersubjetivo claro que nos permita decir cuando un estándar de prueba se supera y cuándo no. La decisión judicial sigue dependiendo en gran medida de la subjetividad del juez y no creo que estemos listos para entregarle esa valoración a la IA.

Con todo, la inteligencia artificial sí puede servir como instrumento para evaluar casos similares y dotar de igualdad de criterios las decisiones de un juez para garantizar uniformidad en la decisión judicial, elevar los estándares de seguridad jurídica y ofrecer un mejor panorama de justicia e igualdad ante la ley.

Mi evaluación es que la IA debe ser implementada en algunas actividades de la gestión judicial, pero veo imposible que pueda reemplazar al juez, -al menos por ahora-. Por avanzada que parezca, aun no puede sustituir la intima convicción y el fuero interno del juzgador y tendrá que limitarse a ayudarlo en su labor judicial.


[1] Ferrer Beltrán, Jordi, “La prueba es libertad, pero no tanto: una teoría de la prueba cuasi-benthamiana”

[2] Entre muchos otros.

[3] Understanding Gender and Racial Bias in AI, Gina Lazaro in a conversation with Dr. Alex Hanna https://www.sir.advancedleadership.harvard.edu/articles/understanding-gender-and-racial-bias-in-ai