Abogados ya están citando casos falsos generados con IA. Y esto es un gran problema

Política y sociedad

La jueza del Tribunal Superior de Justicia de Inglaterra y Gales, Victoria Sharp, debió de tener un día muy extraño. Al revisar las citaciones de casos presentadas por los abogados, se dio cuenta de algo impactante: muchas de ellas simplemente no existían.

Al parecer, los abogados habían recurrido a la IA generativa para su investigación y, como suele ocurrir, la IA alucinó y fabricó jurisprudencia. El Tribunal Superior, encargado de los casos civiles de alto perfil en el Reino Unido, advirtió que citar casos inexistentes podría conllevar desacato judicial o incluso cargos penales. Sin embargo, es poco probable que esto detenga la creciente presencia de la IA en la práctica jurídica.

Casos fantasma

Es fácil señalar a estudiantes que usan IA para hacer trampa en sus tareas, pero esta tendencia ya se ha extendido a los círculos jurídicos profesionales. En un tribunal fiscal del Reino Unido en 2023, una apelante presentó nueve casos falsos como “precedentes”. Cuando se reveló que los casos no eran reales, admitió que era “posible” que hubiera usado ChatGPT. En otro caso de 2023 en Nueva York, un tribunal se sumió en el caos cuando un abogado fue retado a presentar los casos ficticios que citó.

Pasemos ahora a una demanda reciente por 90 millones de libras (120 millones de dólares) que involucra al Banco Nacional de Qatar, donde se citaron 45 jurisprudencias, de las cuales 18 resultaron ser falsas. Varias otras incluían citas inventadas. El demandante admitió haber utilizado herramientas de inteligencia artificial disponibles públicamente para la redacción de documentos legales.

En otro caso, un centro legal demandó a un municipio londinense por no proporcionar alojamiento temporal. El abogado citó casos fantasma cinco veces y no pudo explicar por qué nadie los encontraba. Si bien no admitió haber usado IA, afirmó que podrían haber aparecido mediante búsquedas en Google o Safari, que ahora incluyen contenido generado por IA. No hace falta decir que los jueces no se divirtieron.

“El mal uso de la inteligencia artificial tiene graves consecuencias para la administración de justicia y la confianza pública en el sistema judicial”, afirmó la jueza Victoria Sharp en un fallo escrito.

Sharp admitió que la IA tiene un gran potencial que puede ser útil en los tribunales, pero enfatizó que existe una gran necesidad de una supervisión estricta.

“La inteligencia artificial es una tecnología poderosa. Puede ser una herramienta útil en litigios, tanto civiles como penales —dice la sentencia—. Sin embargo, esto conlleva una salvedad importante. La inteligencia artificial es una herramienta que conlleva riesgos, así como oportunidades. Por lo tanto, su uso debe realizarse con un grado adecuado de supervisión y dentro de un marco regulatorio que garantice el cumplimiento de estándares profesionales y éticos bien establecidos, si se desea mantener la confianza pública en la administración de justicia”.

“En esas circunstancias, quienes tienen responsabilidades individuales de liderazgo en la profesión jurídica… y quienes tienen la responsabilidad de regular la prestación de servicios jurídicos deben adoptar medidas prácticas y eficaces”.

¿Qué pasa ahora?

Sharp emitió una “resolución regulatoria” sobre el uso de IA. Si bien no se trata de una ley aprobada por el Parlamento), una resolución regulatoria tiene peso normativo dentro de la profesión jurídica y establece un marco para abordar diversas situaciones. Si los abogados continúan citando casos alucinados, las consecuencias podrían incluir amonestaciones públicas, sanciones económicas, órdenes de costos no justificados, procedimientos por desacato e incluso remisiones a la policía.

“Cuando no se cumplen esas obligaciones, las facultades del tribunal incluyen la amonestación pública al abogado, la imposición de una orden de costos, la imposición de una orden de costas perdidas, la desestimación del caso, la remisión a un regulador, el inicio de un procedimiento de desacato y la remisión a la policía”.

Pero, como ocurre con tantos problemas tecnológicos, este es otro ejemplo de cómo la tecnología avanza más rápido que las normas. Herramientas de IA como ChatGPT ya se utilizan para redactar argumentos legales, pero no existe un estándar profesional global sobre cómo usarlas de forma segura y responsable.

La IA evoluciona rápidamente, pero las normas, la educación y la supervisión necesarias para usarla responsablemente se están quedando atrás. En este caso, se trató de un abuso flagrante, pero es posible que ya se estén detectando alucinaciones más sutiles. Si la precisión y la veracidad ni siquiera pueden exigirse en los tribunales, esto no augura nada bueno para el resto de la sociedad.

Fuente: ZME Science.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *