MAR, 2 / ENE / 2024

Ex abogado de Donald Trump presenta casos inexistentes por culpa de Bard

Michael Cohen señaló que pensó que estaba utilizando un superbuscador y que en otras ocasiones obtuvo información acertada. El chatbot no es el primero en complicarle la vida a los abogados.

Michael Cohen es conocido por haber sido el abogado de Donald Trump. Era quien se encargaba de arreglar todos sus tropiezos y esconder cada maniobra ilegal realizada por sus empresas. Luego de ser investigado fue acusado de varios cargos, entre ellos evasión de impuestos. El abogado decidió entonces declararse culpable y cambiar el rumbo de su vida. Perdió su licencia pero obtuvo a cambio de su colaboración con las autoridades una sentencia menor de tres años de libertad condicional.

Recientemente su abogado presentó un escrito pidiendo que se reduzca la libertad condicional. Sin embargo, luego de que el juez de distrito revisó los argumentos descubrió que los casos citados no existían. Como ha ocurrido recientemente en otras ocasiones, la culpa parece ser, al menos en parte, de una IA. En este caso es el chatbot de Google, Bard.

El bardo es peligroso

Cohen se ha disculpado señalando que no era su intención engañar a nadie y desconocía la falsedad de los casos citados. Había buscado datos a través de Bard sin saber que se trataba de un servicio de generación de texto. En cambio, había utilizado la herramienta pensando que se trataba de algún tipo de un super buscador. En numerosas otras ocasiones había empleado Bard y conseguido información muy acertada.

También apuntó que le había pasado estos datos a su abogado sin saber que este los iba a emplear en el pedido y no los iba a revisar.

La primera parte de lo señalado es bastante creíble. Aunque la responsabilidad persiste. La segunda parece más bien un recursos técnico. Sí, en última instancia el que debería haber asegurado que todo estuviera en orden era el abogado a cargo.

Abogados despistados

El caso sirve como recordatorio de que el potencial de las IA es enorme, pero todavía una gran parte de las personas no entienden sus limitaciones.. Este no es el primer caso en el que un abogado se mete en problemas por confiar en los resultados de un modelo de lenguaje.

ChatGPT produce precedentes falsos para una demanda

Juez británico utiliza ChatGPT, pero advierte sobre sus beneficios y limitaciones

¡Comparte esta noticia!