Fallos judiciales con la ayuda de la inteligencia artificial: los riesgos de una práctica que se asoma - RED/ACCIÓN

Fallos judiciales con la ayuda de la inteligencia artificial: los riesgos de una práctica que se asoma

 Una iniciativa de Dircoms + INFOMEDIA

Una guía judicial que asesora a los jueces de Inglaterra y Gales incentiva su uso, aunque advierte que todavía la IA no es capaz de generar un dictamen confiable. Varios especialistas instan a seguir el tema con cautela.

Fallos judiciales con la ayuda de la inteligencia artificial: los riesgos de una práctica que se asoma

Imagen de Freepik

La alianza entre el derecho y la inteligencia artificial avanza, aunque con cautela. En Inglaterra y Gales los jueces recibieron una guía judicial para dictar fallos o resoluciones con la ayuda de la inteligencia artificial. Así, el sistema legal británico, uno de los más longevos del mundo, marca una huella en la materia.

En detalle, esta guía que fue publicada el pasado 12 de diciembre no permite a los profesionales usar la tecnología para investigaciones profundas o análisis jurídicos ya que, aclara, puede fabricar información y proporcionar datos engañosos, inexactos y sesgados. 

Entre otra de las recomendaciones clave se encuentra el hecho de que los jueces no deben insertar ninguna información confidencial que no sea de dominio público, ya que estos bots pueden retener esos datos en su sistema, retroalimentarse de ella y utilizarla para generar respuestas a otras personas. 

Geoffrey Vos, director de Justicia Civil en Inglaterra y Gales, dijo que la orientación era la primera de este tipo en la jurisdicción. De acuerdo con Reuters, confesó que esto significaba una gran oportunidad para el sistema judicial así como también un desafío para capacitar a los jueces ya que estos deben comprender qué y cómo trabaja la inteligencia artificial.

Dudas 

"Creo que se trata sin duda de un documento útil, pero será muy interesante ver cómo podría aplicarse", dijo para Quartz Giulia Gentile, profesora de la Facultad de Derecho de Essex que estudia el uso de la IA en los sistemas judiciales. "No hay ninguna indicación concreta de cómo funcionaría este documento en la práctica. ¿Quién supervisará el cumplimiento de este documento? ¿Cuáles son las sanciones?", se preguntó. 

Si bien es evidente que la inteligencia artificial presenta grandes beneficios en muchas áreas de nuestra vida cotidiana, también hay una fuerte resistencia cuando se trata de materias tan sensibles como lo es el derecho o la decisión de un juez que, en definitiva, podría definir el futuro de una persona. 

Carla Garuti, abogada en el Poder Judicial argentino, explica para RED/ACCION que, hoy por hoy, la IA puede brindarte un buen dictamen judicial pero con muchas falencias, ya que no tiene toda la legislación actualizada y probablemente haya tecnicismos que se le escapen. “Se puede usar como herramienta, no hay que quedarse atrás en esas cuestiones, pero siempre controlando y no confiando ciegamente”, profundiza. 

En esta línea, John Villasensor, profesor de derecho y codirector del Instituto de Tecnología, Derecho y Política de la UCLA, explica en un artículo de Brookings que sería un error utilizar los extraordinarios avances de la IA para minimizar la importancia del elemento humano en el ejercicio del derecho. 

“No tiene la misma capacidad que un humano o un jurista en poder hacer una resolución judicial”, reflexiona Garuti. “Las decisiones judiciales por ahí se pueden sostener en lo que dice una inteligencia artificial pero principalmente es una persona la que va a tener que tomar la decisión”, concluye. 

Esta no es la primera vez que la inteligencia artificial mete sus narices en cuestiones legales. De hecho, en noviembre de 2023, 36 concejales del Ayuntamiento de Porto Alegre aprobaron por unanimidad un agregado de ley que había sido escrito con la ayuda de Chat GPT, el bot conversacional de OpenAI. 

Sobre esto, Martín de León, abogado especialista en políticas públicas, explica para RED/ACCIÓN que no se puede prescindir del sentido común porque en ese caso hay un riesgo grave de caer en una unjusticia. “En ese sentido hay que ser cuidadoso con cuánto estamos dispuestos a conceder a la inteligencia artificial en la interacción y la intervención del documento”, expresa.