Departamento de Derecho Penal y Criminología

Actualidad
29 de mayo de 2024

Inteligencia artificial y crímenes de guerra

¿Quién es culpable por las decisiones que de forma autónoma tome la inteligencia artificial en contextos de conflicto armado?

Por: Carlos Andrés Guzmán, docente investigador.

En anterior oportunidad se discutieron presupuestos para la obtención, admisión y valoración como prueba en juicio, de productos de inteligencia artificial. Esta vez quisiera llamar la atención sobre el uso de dicha tecnología en el marco de los conflictos armados. 

La guerra debe tener algunos límites y, por tanto, ciertos comportamientos ejecutados en el curso de hostilidades que no son lícitos. Para tal fin, instrumentos internacionales, como los Convenios de Ginebra, sus Protocolos Adicionales y el Estatuto de Roma se han encargado de definir los elementos para que determinados actos, al igual que los medios o métodos a la luz del DIH, puedan ser penalmente reprochables. 

La posibilidad de utilizar inteligencia artificial durante un conflicto armado es cada vez más frecuente. Por ejemplo, ciertos informes han mencionado que, durante los conflictos en Libia, Nagorno-Karabaj, Siria, Gaza y Ucrania se han usado Sistemas de Armas Autónomas o AWS, por sus siglas en inglés, basadas en IA. 

Se ha afirmado que, por ejemplo, se usan drones que tienen la posibilidad de aprender y tomar decisiones autónomas sobre los cuáles podrían ser objetivos legítimos. Se trata de municiones merodeadoras o, coloquialmente, drones suicidas. 

Por tanto, así como hoy se pretende responsabilizar a las personas jurídicas ¿Quién es culpable por las decisiones que de forma autónoma tome la inteligencia artificial en contextos de conflicto armado? 

Ciertos autores sostienen que, en los términos del artículo 8 del Estatuto de Roma, no se pueden atribuir conductas criminales a la inteligencia artificial, por ausencia de personalidad jurídica. Otros dicen que el reproche es igual al de los menores.

El profesor Ricardo Posada Maya afirma que es posible, siempre que la entidad de la IA tenga la capacidad de resolver dilemas de carácter moral. Igualmente, destaca que quienes diseñen sistemas basados en inteligencia artificial o, simplemente, los utilicen, pueden ser penalmente culpables.

Se ha sostenido que se podría imputar a quienes conciban o programen las AWS, a partir del artículo 36 del Protocolo I Adicional a los Convenios de Ginebra. Entonces, el desarrollador tendría la obligación de definir con precisión los parámetros de autonomía, limitación, proporcionalidad, necesidad militar o distinción. Sin embargo, esto no deja de ser problemático, dado que el DIH se aplica en contextos de guerra y obliga a quienes tomen parte del conflicto armado. La guerra se produce en este instante en Gaza, pero se podrían estar utilizando AWS con programadores ubicados en cualquier parte del mundo.

En cambio, la responsabilidad es más clara para quienes operan estas herramientas de IA, pues no solo harían parte de las hostilidades, sino que ellos pueden definir cuánta autonomía le entregan y qué instrucciones específicas le podrían suministrar a las AWS. Lo mismo ocurre con quien se encuentre en línea de mando y autorice el uso de esa tecnología.  

Sin embargo, el asunto no deja de ser problemático. Los métodos y medios pueden estar definidos a partir de la Convención sobre Prohibiciones y Restricciones del Empleo de Ciertas Armas Convencionales y sus cinco protocolos. Pero no hay claridad sobre cuáles deberían ser los límites en el uso de armas autónomas.

Por ello, se han propuesto dos niveles de regulación. Uno, que se prohíban radicalmente las AWS que operan sin control humano; y dos, se defina el diseño y uso de la autonomía en los sistemas de armas, dejando a salvo el control humano para que el uso de la fuerza sea predecible y entendible, siempre bajo las reglas del DIH. FranciaEstados Unidos o Países Bajos ya han hecho propuestas concretas.

Sin embargo, mientras no exista un consenso internacional sobre el uso de la inteligencia artificial en contextos de guerra, un dron, lanzado a miles de kilómetros, tomará la decisión sobre la vida o muerte de una persona. ¿Quién será el responsable?