Un abogado de Los Ángeles, Amir Mostafavi, ha sido sancionado con una multa de 10,000 dólares por incluir en una apelación presentada ante un tribunal estatal de California 23 citas legales, de las cuales 21 fueron completamente inventadas por ChatGPT. Este incidente plantea serias dudas sobre el uso de la inteligencia artificial en el ámbito legal y su implicación en la ética profesional.
La multa impuesta a Mostafavi se considera la más alta hasta la fecha en California por el uso indebido de inteligencia artificial en la creación de evidencia o referencias legales. El tribunal calificó la apelación como frívola y subrayó que el abogado había violado normas judiciales fundamentales, al citar casos falsos y desperdiciar recursos del tribunal y de los contribuyentes. Los jueces enfatizaron que “cualquier cita que no leas y verifiques tú mismo es jugarle al vivo”.
Este caso surge meses después de que OpenAI promocionara ChatGPT como capaz de generar textos complejos que incluso pueden aprobar exámenes de la profesión legal, motivando a muchos abogados a explorar su potencial para mejorar la redacción de documentos legales, contratos y resúmenes de casos. Sin embargo, la sanción a Mostafavi deja claro que la automatización no sustituye la responsabilidad profesional ni la revisión humana.
El tribunal reiteró que “el hecho de que una IA pueda generar contenido convincente no significa que ese contenido sea exacto o confiable”. La influencia de ChatGPT en el sector legal se ha vuelto más evidente, con un número creciente de bufetes de abogados que están integrando herramientas de IA para facilitar investigaciones legales y la redacción de documentos.
Estudios recientes indican que más del 40% de los despachos de abogados en Estados Unidos ya utilizan algún tipo de inteligencia artificial para optimizar tareas rutinarias, lo que plantea preguntas sobre la fiabilidad de la información generada. El caso de Mostafavi pone de relieve el fenómeno conocido como “alucinación” en inteligencia artificial, donde los modelos de lenguaje generan información plausible pero falsa, lo que en un contexto legal puede tener consecuencias graves.
Además de las implicaciones personales para el abogado, este caso abre un debate más amplio sobre la regulación del uso de la IA en el ámbito legal. Expertos sugieren la creación de pautas éticas y estándares de uso para evitar la dependencia excesiva de herramientas automatizadas sin supervisión humana.
La situación está cambiando la manera en que los abogados manejan la preparación de casos, la investigación y la gestión de documentos. En Estados Unidos, se han establecido iniciativas como la de Lawline, que ha lanzado un centro dedicado a la capacitación de abogados en el uso ético y eficiente de la inteligencia artificial.
La necesidad de una formación práctica y de alta calidad que pueda ser aplicada en el ejercicio profesional es urgente, como lo destaca Angélica Cesario, vicepresidenta de Soluciones de Aprendizaje de Lawline.