Departamento de Derecho Penal y Criminología

Actualidad
6 de diciembre de 2023

La inteligencia artificial como prueba. Episodio Final: valoración

Al final, la suerte de una persona no debería quedar sometida a la dictadura del algoritmo

Por: Carlos Andrés Guzmán, docente investigador

En la primera entrega se mostraron los riesgos que la inteligencia artificial supone para la expectativa de intimidad. En la segunda, las notables limitaciones al derecho de contradicción.

De hecho, en este último escrito se mencionaron varias decisiones judiciales sobre los sistemas de predicción del riesgo, solo que omitimos deliberadamente aclarar algo: en buena parte de ellas la información entregada por IA fue avalada por los tribunales, al considerar que sus resultados eran solo uno de los criterios a tener en cuenta por el juez para decidir sobre la detención preventiva o la libertad condicional. Por tanto ¿Cómo se deberían valorar los datos suministrados por la inteligencia artificial?

En primer lugar, esa clase de información puede ser de muy diversa naturaleza, por lo que no se engloba fácilmente en las categorías tradicionales. Dependiendo del producto que suministre la inteligencia artificial podríamos estar ante una declaración documentada, una opinión o un documento representativo, etc.

El Código de Procedimiento Penal ofrece criterios de valoración disímiles según se trate de cada uno de ellos. Por ejemplo, si la IA entrega un informe de cierto suceso captado, su tratamiento estaría a medio camino entre una simple grabación o, incluso, una verdadera declaración, como pareciera concluir la profesora Andrea Roth[1]. Al respecto, considero es necesario ponderar la posibilidad de confrontación.

Pero, si la inteligencia artificial entrega opiniones (lo cual se ha hecho cada vez más frecuente, por ejemplo, en el área de la salud), las reglas de valoración no serían tan disímiles a las de la prueba pericial. En consecuencia, deberíamos conocer cuáles son los datos con los que fue alimentada, los rangos de error y validación, así como el nivel de “experiencia” o aprendizajes autónomos que habría obtenido. Acá es importante tener claro que existe cierto sesgo a pensar que un conocimiento experto es incuestionable[2]. Todo se haría más complejo si se empieza a evidenciar el “prejuicio de la máquina infalible”. Un Tribunal de Justicia y Paz hizo una interesante reflexión al respecto.

Por otra parte, hoy difícilmente podremos identificar si un documento refleja una escena, una voz o una secuencia de imágenes (video) de algo que realmente ocurrió; o si, por el contrario, fue algo desarrollado por programas como Dall-E, herramienta que tiene la habilidad de recrear cosas que, por ejemplo, aún no existen. Hoy es difícil saber si una canción es grabada por un ser humano. De hecho, recientemente uno, aunque con limitadas destrezas líricas, fue suplantado.

Claro, hay herramientas como AIorNot.com que también, con el uso de esa misma tecnología, pueden descifrar si algo fue creado por inteligencia artificial. Pero creo que este es el momento en que se hace indispensable que una persona en juicio nos diga, bajo juramento, que una evidencia es realmente, lo que se alega que es: un testigo de acreditación.

Epílogo.

No quisiera presentar un escenario distópico. Solo se ha pretendido resaltar que, aunque aún no llega el día en que alguien toque nuestra puerta buscando a Sarah Connor, sí creo que la inteligencia artificial ya está presente. Por tanto, deberíamos saber qué hacer con ella en juicio.

Por ahora, se presentan tres conclusiones generales. Primero, necesitamos una mejor regulación internacional sobre la capacidad que tiene la inteligencia artificial de afectar nuestra intimidad. Segundo, es importante desarrollar reglas jurisprudenciales sobre el derecho a la contradicción de la prueba obtenida o producida por esa vía. Finalmente, deberíamos ser capaces de construir criterios que permitan hacer una valoración adecuada de lo que tal tecnología nos entregue. Al final, la suerte de una persona no debería quedar sometida a la dictadura del algoritmo.

[1] Roth Andrea, “Machine Testimony”, en The Yale Law Journal, Universidad de Yale, 2017, p. 1976 y s.s.

[2] Gascón Abellán Marína, Cuestiones probatorias. Universidad Externado de Colombia, Bogotá, 2012, p. 89.