06 Nov Los riesgos (no tan evidentes) de la IA en la redacción de documentos jurídicos
La IA generativa está aquí para quedarse. Debemos conocer todo su potencial y usarla en nuestro trabajo diario, pero tomando las debidas precauciones.
Nos confesamos creyentes en la Inteligencia Artificial.
No está aquí para sustituirnos, sino para ayudarnos a hacer mejor nuestro trabajo: pero no sirve para todo.
No se trata de rechazar la tecnología, sino de usarla con seguridad y conocer los riesgos que implica.
El equipo del diario Expansión tuvo la gentileza de incluir en su edición del pasado fin de semana el artículo de Fernando que hoy reproducimos aquí titulado “Riesgos de la IA en los documentos jurídicos“.
El becario gratuito
La inteligencia artificial lleva años con nosotros, pero su nueva versión denominada “generativa” es más reciente. Desde que apareciera ChatGPT en noviembre de 2022 muchas cosas han cambiado. Se nos ha dicho que las herramientas de IA generativa son una ayuda inestimable, puesto que pueden liberarnos de tareas rutinarias o repetitivas.
Las han comparado con un becario gratuito a nuestro servicio. Un becario, además, extremadamente voluntarioso que trabaja mucho y muy rápido.
Algunos juristas han empezado a usar IA generativa para redactar textos (incluso bilingües). La IA bien utilizada puede ser de gran ayuda, cierto, pero al usarla nos enfrentamos a riesgos que no siempre conocemos. En este artículo presentaré solo tres de los riesgos más graves que asumimos al utilizar herramientas de IA generativa para redactar documentos jurídicos o traducir textos legales.
Riesgo #1: confidencialidad
La confidencialidad es una cuestión prioritaria para los juristas, especialmente en algunas áreas de práctica como civil y mercantil, llegando a ser una premisa esencial en la redacción de numerosos documentos. Pues bien, lo diré sin paños calientes: si utilizamos herramientas de IA generativa nos podemos olvidar de la confidencialidad.
Tanto ChatGPT como herramientas similares denominadas LLM (Large Language Models o modelos de lenguaje masivo) utilizan y almacenan la información que introducimos en ellos para, supuestamente, entrenar sus modelos. Por si eso fuera poco, resulta extremadamente complicado saber dónde va nuestra información y qué hacen con ella.
A pesar de que ChatGPT, Gemini o Copilot aseguran que no utilizan la información de sus usuarios, sus políticas de uso son tan ambiguas que, al menos, nos hacen sospechar.
Robert Mahari, experto en Derecho computacional del MIT y Harvard Law School, confesó hace solo unos días en el Legal Management Forum, que el asunto de la confidencialidad es un problema todavía no resuelto en las herramientas de IA generativa.
Riesgo #2: creatividad excesiva
Si has leído recientemente algún artículo sobre las herramientas de IA generativa habrás oído hablar de las “alucinaciones”. Se denominan así a las respuestas creadas por inteligencia artificial generativa que no tienen nada que ver con la realidad. Es decir, respuestas falsas o inventadas. Podría decirse que nuestro nuevo becario es una persona bastante creativa que se toma demasiadas libertades.
En los Estados Unidos son bien conocidos algunos casos de abogados sancionados por incluir precedentes falsos (inventados por herramientas de IA generativa) en sus escritos presentados ante los tribunales.
En España tenemos un caso muy reciente que apunta en esa misma dirección. El Tribunal Constitucional español emitió el pasado 19 de septiembre una Nota Informativa (la n. º 90/2024) en la que los seis magistrados de la Sala Primera acordaban por unanimidad imponer una “sanción de apercibimiento” a un abogado del Colegio de Barcelona por presentar ante el alto tribunal una demanda que incluía “la cita supuestamente literal de pasajes de 19 sentencias del Tribunal Constitucional, al efecto entrecomilladas, cuando resulta que ninguna de ellas era real“.
La falta de certeza de la información que nos aportan estas herramientas de IA generativa es un hecho probado. En junio de este año, un grupo de seis investigadores de la Universidad de Stanford (California) publicaron un estudio sobre la fiabilidad de los resultados obtenidos en investigación legal usando ChatGPT y otras herramientas de información legal con IA como Lexis, Westlaw AI-Assisted Research y Ask Practical Law AI.
Investigaciones anteriores habían demostrado que los LLM generalistas pueden inventarse entre el 58 % y 82 % de la información legal que proporcionan. En el caso de las herramientas especializadas analizadas por los investigadores de Stanford, aunque no presentaron tantas alucinaciones, tampoco ofrecieron resultados que nos dejen muy tranquilos. El porcentaje de errores (o información inventada) osciló entre el 35 % y el 58 %. ¿Suficiente para fiarse de ellas? Posiblemente, no.
Riesgo #3: falta de coherencia
Otro problema, a mi juicio importante, que presentan estas herramientas en la producción de documentación, especialmente si se hace en formato bilingüe, es la falta de coherencia. Todo jurista sabe que la coherencia interna de un documento es una cuestión fundamental.
Un ejemplo sencillo: palabras inglesas como company pueden traducirse de diferentes formas en español como, por ejemplo, empresa, sociedad, compañía y posiblemente algunas más. Pero un traductor (humano) sabe que dentro de un documento debe ceñirse siempre a la misma traducción de un término, de otro modo estaría abriendo la puerta a la ambigüedad y a una posible confusión del lector.
La inteligencia artificial generativa no usa nuestro documento como marco de referencia para encontrar coherencia. Los LLM recopilan información de fuentes muy diversas, lo que hace que sus traducciones estén muy lejos de ser coherentes dentro de un mismo documento. Parece que esto es algo que no les preocupa demasiado a estos modelos.
Conclusión
Las herramientas de IA generativa son un avance tecnológico espectacular y pueden hacernos la vida más sencilla si sabemos usarlas correctamente. Nos han proporcionado a todos un becario gratuito que trabaja 24×7 y que lo hace muy rápido. Pero no deja de ser un becario. Si dejamos en sus manos la redacción de documentos clave estamos asumiendo ciertos riesgos que debemos conocer.
No Comments