Departamento de Derecho Penal y Criminología

Actualidad
8 de noviembre de 2023

La inteligencia artificial como prueba. Episodio Uno: la privacidad

Por lo pronto, todo lo que usted le diga a Alexa puede ser usado en su contra

Por: Carlos Andrés Guzmán, docente investigador

Es un tema recurrente. Se ha escrito bastante sobre inteligencia artificial y, a veces, se encuentran cosas realmente interesantes o novedosas. Sin embargo, creo que hay un tema en el que hace falta mayor reflexión y construcción: el uso probatorio de las herramientas de inteligencia artificial. 

Un consenso sobre lo que significa inteligencia artificial podemos hallarlo en la definición que Unesco ofreció en 2021. Resalto de allí tres conceptos: información, aprendizaje y toma de decisiones. En la definición de rutas, selección del contenido en streaming, búsqueda de información en la red o, incluso, vehículos autónomos, hay adopción de decisiones, basadas en información, gracias a un aprendizaje autónomo del algoritmo.

Por eso ahora, jueces y tribunales de todo el mundo se están enfrentando a situaciones inéditas, en especial, cuando se quiere presentar en juicio alguna información que es obtenida o producida por la inteligencia artificial. 

En este primer episodio me centraré en un aspecto relevante: la privacidad. Citaré cuatro ejemplos. Primero, en el caso New Hampshire c. Timothy Verril, un juez ordenó obtener la información que el asistente virtual Alexa habría captado cuando se produjo la muerte de dos mujeres y las características de los dispositivos electrónicos emparejados. Aunque allí posiblemente no hay información creada por el asistente que utiliza inteligencia artificial, sí se trata de datos que él habría captado de manera permanente. Estamos ante una forma de obtener evidencia más invasiva que la vigilancia de personas o que una operación encubierta.

En el caso Estados Unidos c. Wilson, el Tribunal del Distrito Sur de California, en un juicio sobre posesión ilegal de pornografía, excluyó la evidencia obtenida por el algoritmo de Google, el cual detectó de manera automatizada que el acusado habría cargado a su correo electrónico imágenes de posible pornografía infantil, por lo que el sistema decidió remitir la información a un centro de protección, la que, a su vez, la envió a la fiscalía. La decisión del algoritmo se basó en el aprendizaje hecho a partir de otros archivos que habían clasificado los empleados de Google como material sensible. Para el tribunal, se habría violado la expectativa de intimidad del acusado, pues su obtención se produjo sin orden judicial.

A su vez, un tribunal en Connecticut, en el caso Estados Unidos c. Curry, decidió suprimir el arma de fuego hallada en poder de una persona, pues su abordaje se produjo a partir del uso de algoritmos de vigilancia policial predictiva, según los cuales el lugar donde estaba Curry podría ser una “zona caliente” de actividad criminal. De esta forma, las autoridades que realizaron el registro lo hicieron sin motivos fundados, por lo que se habría afectado el derecho a la privacidad del acusado. Algunos votos concurrentes realizaron ciertas reflexiones sobre prejuicios raciales del sistema predictivo.

Finalmente, el 4 de julio de 2023, el Tribunal Europeo de Derechos Humanos, en el caso Glukhin c. Rusia revisó la situación de un joven identificado durante unas protestas que, con reconocimiento facial, fue posteriormente capturado. Para la Corte de Estrasburgo, esa herramienta era altamente invasiva del derecho a la intimidad, por lo que resultaba incompatible con los valores de una sociedad democrática. 

Todos estos casos reflejan la importancia de prestar atención a un aspecto básico: cómo se obtuvo la evidencia. La capacidad que tienen los dispositivos que usan inteligencia artificial para recoger información parece hoy, francamente, ilimitada. Por ello, desde las redes sociales hasta los automóviles están llegando a sorprendentes niveles de afectación a la intimidad apoyándose en algoritmos, con la excusa en la toma de decisiones en “beneficio” del usuario. Recientes iniciativas nacionales y multilaterales buscan regular el tema. Sin embargo, por lo pronto, todo lo que usted le diga a Alexa puede ser usado en su contra.