MAR, 3 / DIC / 2024

ChatGPT y aquellos que no deben ser mencionados

Los usuario de la IA han descubierto que existen una serie de nombres que la IA se rehúsa a pronunciar. Las razones por las que esto ocurre aún no son claras.

Al parecer ChatGPT tiene un problema a la Harry Potter: hay personas que no deben ser mencionadas y pocas explicaciones se dan sobre los motivos de tal actitud. El primero de los nombres prohibidos en ser descubierto fue David Mayer. Un usuario utilizó el nombre en una pregunta y la IA le comunicó que no podía producir una respuesta.

El usuario contó lo ocurrido en Reddit. Como era de esperarse esto dio a lugar a una gran cantidad de personas intentando convencer al bot de pronunciar el nombre. Pero la IA resistió con la tenacidad de la piedra.

Los Jonathan

Con el tiempo otros nombres de la lista negra aparecieron. Jonathan Zitrain y Jonathan Turley también demostraron ser un problema para ChatGPT. Pero con el descubrimiento de estos comenzaron a realizarse algunas conexiones. Zitrain es un profesor de leyes en Harvard que ha escrito mucho sobre las IA, Turley un presentador de telecisión que ha declarado que ChatGPT lo ha calumniado.

La idea era que posiblemente los nombres que la IA no puede pronunciar pertenecen a personas que han exigido que el sistema no hable sobre ellos. Zitrain incluso ha escrito que las IA deben ser controladas. Pero Turley ha sido consultado al respecto y ha señalado que de su parte no ha habido ninguna acción legal contra la empresa.

Otro elemento a considerar es que ambos Jonathan tienen escritos que el New York Times cita en su demanda por derechos de copia contra OpenAI. Así pues, existe la posibilidad de que la prohibición haya sido iniciativa de OpenAI.

Otros nombres

Conforme pasó el tiempo más nombres aparecieron. Entre ellos Brian Hood, David Faber y Guido Scorza. Y seguramente la lista se ha ampliado aún más. Brian Hood fue conocido porque ChatGPT lo describía falsamente como responsable de un crimen. Brian también ha negado haber iniciado cualquier tipo de demanda.

Una posible respuesta

El elemento en común de todos los nombres de la lista es que ChatGPT ofrecía respuestas inexactas, falsas y problemáticas cuando se los mencionaba en una consulta. No pudiendo corregir lo que había aprendido la IA sobre estas personas, los desarrolladores podrían haber optado por crear una lista de términos que debían tratarse con especial cuidado. La implementación podría no haber sido la mejor y haber terminado con el sistema ofreciendo un silencio absoluto sin explicación y en ocasiones incluso colapsando.

¡Comparte esta noticia!
TAGS