Actualidad
19 de febrero de 2025
Inteligencia Artificial Generativa: un aliado en la práctica legal
La pregunta no es si la Inteligencia Artificial Generativa reemplazará a los abogados, sino si los abogados que no la utilizan serán reemplazados por los abogados que sí la utilizan.
El caso Mata vs. Avianca[1] es ejemplarizante para la práctica legal. En este, los abogados accionantes presentaron ante una corte en EE.UU una demanda soportada en precedentes judiciales inexistentes, pero que fueron creados o alucinados por una herramienta de Inteligencia Artificial Generativa (IAG). La corte los sancionó con multa y les ordenó, entre otros, informar formalmente la falta cometida al cliente y cada autoridad falsamente citada en la demanda.
En 2022, un grupo de académicos pusieron a prueba la IAG, en su capacidad de responder cuatro exámenes finales de la carrera de derecho, y concluyó que la herramienta alcanzó el puntaje de un estudiante mediocre. Lo que es suficiente para obtener el título de abogado[2]. Ahora bien, la prueba se hizo en un modelo de IAG no alimentado por fuentes del derecho; de modo que se puede esperar mucho más de la IAG especializada en la práctica legal. Varias plataformas así ya están en el mercado y compiten por ofrecer la mejor experiencia.
En este punto de la historia, todos los participantes de la práctica legal (estudiantes, practicantes, abogados, servidores públicos, etc.) tienen acceso a la IAG y la han experimentado como parte de su práctica. O lo harán en un futuro cercano. Y, cómo no hacerlo, si en solo unos segundos la IAG puede apoyar con tareas básicas como resumir documentos, transcribir audios, revisar contratos, corregir redacción y ortografía o redactar correos.
Entonces, la pregunta no es si la IAG reemplazará a los abogados, sino si los abogados que no utilizan IAG serán reemplazados por los abogados que utilizan IAG.
Por esto, la falta y sanción de los abogados demandantes del caso de Mata vs. Avianca, a más de ser muestra de esta realidad en la práctica legal, era necesaria como aprendizaje del uso responsable de la IAG. Es imperativo tener precaución en su uso, dadas las limitaciones y alucinaciones de la IAG; y es necesario que en cada práctica legal se impartan directrices de su uso razonable, que sean compatible con los deberes profesionales de los abogados y de los servidores públicos.
Como punto de reflexión:
- Deber de confidencialidad. Los abogados deben guardar el secreto profesional y los servidores públicos deben custodiar la información a la que tienen acceso. Por tanto, se debe prohibir compartir con la IAG los datos e información confidenciales, protegidos legal o contractualmente y de las partes e intervinientes en los casos concretos. Claro que es posible anonimizar adecuadamente la información al formular la pregunta a la IAG.
- Deberes de diligencia y eficiencia. A los abogados se les exige actuar con celosa diligencia y a los servidores públicos con eficiencia en el servicio encomendado. Previo a cualquier interacción profesional con IAG, es necesario capacitarse en el uso de la IAG como herramienta de trabajo y adquirir conocimientos para un uso adecuado y hábil que permita generar resultados de calidad, que complementen o mejoren la experiencia humana existente.
- Deber de actualización de conocimiento. Tanto abogados como servidores públicos deben observar la Constitución y la ley, y actualizar el conocimiento inherente al rol o función. Las IAG especializadas en la práctica legal están en capacidad de encontrar y aplicar las normas relevantes a una pregunta jurídica concreta. Sin embargo, la desactualización normativa y las alucinaciones son reales, por lo que cualquier redacción de la IAG debe ser verificada por un profesional del derecho con precisión y utilizando fuentes legales autorizadas.
Deberes de independencia e imparcialidad. Los abogados deben evitar que sus opiniones interfieran con su independencia profesional y los servidores públicos deben actuar con independencia e imparcialidad. Pues bien, la IAG se nutre de datos e información pasada y disponible para predecir una respuesta lógica, y esta puede estar sesgada o influenciada por perjuicios que, sin revisión humana, será replicados por la herramienta.
[1] Mata v. Avianca, Inc., 678 F. Supp. 3d 443, 2023 U.S. Dist. LEXIS 108263
[2] Jonathan H. Choi , Kristin E. Hickman, Amy B. Monahan & Daniel Schwarcz, ChatGPT Goes to Law School, 71 J. LEGAL EDUC. 387 (Spring 2022).