En 2022 Jake Moffart reservó un pasaje a Toronto para asistir luego al funeral de su abuela. Para realizar esta operación utilizó el chatbot de Air Canada. La IA le explicó que podía pagar el costo total y aplicar luego para recibir una tarifa de duelo.
Las tarifas de duelo son descuentos que las compañías ofrecen a aquellos que viajan para reunirse con familiares en momentos de pérdida.
Sin embargo, cuando Moffart intentó realizar esta operación un empleado de Air Canada le dijo que no podía acceder a tal descuento. La compañía argumentó que el descuento había sido un error del chatbot.
El viaje había costado unos 1640 dólares canadienses, con el descuento hubieran sido unos 760.
El juicio
Moffart decidió llevar este incidente ante un tribunal. Apuntó que la empresa había producido una representación negligente de los costos.
La compañía intentó desligarse de cualquier tipo de responsabilidad. No podía ser considerada responsable por los datos suministrados por uno de sus agentes o representantes, incluido el chatbot.
La corte canadiense que atendió el caso no compartió esa idea. Apuntó que implicaba que el chatbot era una entidad legal separada y responsable de sus propias acciones. En cambio, afirmó que el chatbot era parte del sitio web de Air Canada, por lo que esta empresa debía ser considerada responsable por la información que suministra. También explicó que no existe razón alguna para que un usuario deba comprobar la información de una parte de sitio web (el chatbot) con otra (la sección sobre tarifas de duelo) para ver cuál es acertada y cuál no.
Además del descuento la compañía ha sido obligada a pagar daños.
Responsables de las IA
Más allá de lo anecdótico este caso puede ser un importante antecedente. Establece un vínculo de responsabilidad entre las IA y las empresas que las emplean. Podría llevar a algunas compañías a evitar los bots en algunos casos o utilizarlos advirtiendo al público que en realidad no son confiables.