A fines de febrero un abogado presentó un caso contra la aerolínea Avianca en el que se la hacía responsable de una serie de lesiones sufridas por su cliente durante un vuelo desde El Salvador a nueva York en 2019. El caso era complejo porque la empresa había pasado por un proceso de bancarrota en 2020.
El primero de marzo se presentó un documento que citaba varios casos como precedentes. Entre ellos aparecía Varghese v. China Southern Airlines Co y Zicherman v. Korean Air Lines Co.
El 15 de ese mismo mes el equipo de abogados defensores de la empresa respondió señalando que el primer caso citado no había podido ser localizado. Con el segundo había ocurrido algo similar, aunque había un caso bajo el mismo nombre en los registros de la Corte Suprema.
El 11 de abril el juez le pidió al abogado del demandante que aportara las copias de los casos señalados, 8 en total. El 25 de abril 8 documentos fueron provistos. Cinco de ellos eran PDFs con capturas de pantallas de ChatGPT.
ChatGPT alucina
El abogado le había pedido a ChatGPT que buscara ejemplos de casos que apoyaran su argumento. Tal como hacen a menudo las IA ante tareas de gran complejidad, ChatGPT entró en un estado de alucinación e inventó varios casos como antecedentes.
Cuando el juez le pidió al abogado las copias de los casos, este se las pidió a ChatGPT. ChatGPT volvió a sumergirse en su universo de fantasía y produjo los documentos.
La demanda le preguntó a ChatGPT si los casos eran reales y la IA respondió que sí.
El resultado
Al parecer 6 de los 8 casos citados son completamente ficticios. Cuando el juez se enteró de como había ocurrido todo su enojo fue claro. Ahora los abogados involucrados están en graves problemas. Aunque la consulta inicial podría excusarse los siguientes pasos tienen una importante dosis de negligencia e irresponsabilidad.
Aún en sus descargo por lo ocurrido uno de los abogados admitió que la herramienta había demostrado no ser confiable y que nunca antes había sido utilizada para la investigación.