Actualidad
22 de noviembre de 2023
La Inteligencia Artificial como prueba. Episodio dos: contradicción
El uso de información creada por la inteligencia artificial deja cuestiones pendientes
En anterior oportunidad se identificaron algunos elementos para hablar de inteligencia artificial y se cuestionó, a partir de casos concretos, si se podría estar afectando de manera relevante la intimidad personal. De hecho, recién apareció una demanda contra ChatGPT al respecto.
Esta vez, pondré el foco en la posibilidad de controvertir la información que la inteligencia artificial obtenga o produzca.
Por cuestiones de espacio, me centraré en los sistemas predictivos de riesgo, como Compas, que promete anticipar la peligrosidad de una persona, usualmente, para determinar la posibilidad de imponer una detención preventiva (como en Loomis c. Wisconsin) o de conceder libertad condicional (Henderson c. Steinsburg o en Ewert c. Canadá). Colombia también ha intentado su uso. Sin embargo, varios aspectos impiden su contradicción.
Así, no está claro cómo se alimenta este tipo de tecnología, es decir, si lo hace a partir de registros históricos, en qué lapso, qué parámetro geográfico usó, qué clase de comportamientos y cuáles son las bases de datos que analizó el algoritmo. Esto es relevante: pudo usar registros tan antiguos que incluyó conductas que ya no son penalmente relevantes o descartó otras que hoy en día sí lo son; si acaso se basó en datos de personas condenadas, imputadas o, simplemente, capturadas; si se apoyó en bases de datos policiales, que almacenan contravenciones; o incluso, si tuvo en cuenta criterios de género, grupos etarios o sesgos étnicos. También deberíamos conocer si tuvo control de calidad y la tasa de error en sus resultados.
De hecho, si los datos previos fueron desagregados, es posible que el sistema considere que existe un mayor riesgo de reincidencia de quienes viven en determinados barrios, que provengan de hogares desestructurados, o que no se hayan podido insertar en el mercado laboral formal. Como lo afirma FairTrials, estos modelos simplemente pueden estar reproduciendo los sesgos de las autoridades que deciden abordar a los ciudadanos y, tras acumular datos, solo maximizan el riesgo de un resultado basado en prejuicios.
Por ello, en primer lugar, quien desee refutar las conclusiones de un sistema de predicción, debería tener derecho a conocer cada una de estas variables y cuestionar que, posiblemente, no se tomaron parámetros adecuados. Además, en segundo lugar, debería conocer el código en el que se apoyó para llegar a cierta conclusión. Esta es, tal vez, una tarea más compleja.
Descifrar la forma en que se han hecho los cálculos implica conocer el algoritmo, pero eso es parte de los derechos que se reservan las compañías creadoras. Sin un adecuado descubrimiento de los datos de programación, el ejercicio de contradicción probatoria resultará totalmente limitado o, incluso, nulo, como lo consideró el Tribunal Superior de Karlsruhe (Alemania) que, en 2019, ordenó entregar los documentos de medición usados por la IA en un asunto de tránsito.
Precisamente, uno de los presupuestos necesarios para la controversia probatoria es el descubrimiento. Pero allí entrará en tensión la salvaguarda de información que hace parte de la caja negra de la propiedad intelectual. Pedirle a una compañía que ofrece estos servicios que nos entregue su algoritmo, es como solicitarle a Coca Cola que nos preste su fórmula para revisarla. Sin embargo, en el caso el Estado c. Pickett, un Tribunal de Nueva Jersery autorizó al acusado a acceder al código fuente y a los soportes en un caso de ADN. Pero no siempre se ha permitido algo así.
Por tanto, el uso de información creada por la inteligencia artificial deja cuestiones pendientes. Tal vez sea necesario definir si el interés de mantener a salvo la información amparada por el secreto comercial prevalece frente al derecho que tiene una persona de realizar un adecuado ejercicio de contradicción probatoria, tanto acerca de la información que obtuvo, como del método que utilizó para esos resultados. Al final, se trata del derecho a la defensa: un algoritmo difícilmente puede ser contrainterrogado.