Las IA tienen un gran problema, no saben cuando deben callarse la boca. Este parece ser en parte la causa de un nuevo conflicto para OpenAI en Europa por el funcionamiento de ChatGPT. El grupo activista None of Your Business ha presentado una queja a la autoridad de protección de datos de Austria. En ella señala que los datos incorrectos de una persona en el sistema de inteligencia artificial de la compañía no pueden ser corregidos.
El defecto es crucial dado que el Reglamento General de Protección de Datos establece que la información personal debe ser certera y las personas tienen el derecho a exigir correcciones si no lo fuera.
La prueba
NOYB realizó el siguiente ejercicio. Le pidió a ChatGPT que le diera la fecha de nacimiento de una figura pública. Muchos de los datos de esta persona están en Internet, pero no su fecha de nacimiento. Al no encontrar la información, en vez de simplemente admitir que desconocía la respuesta adecuada, el sistema ofreció varias respuestas tentativas. Todas ellas erróneas.
La figura pública realizó un pedido de eliminación de la información errónea.
Sobre el pedido de eliminación de los datos, OpenAI ha señalado que es imposible evitar que el sistema los presente si el usuario se los pide. También apuntó que existen filtros para desactivar el despliegue de datos personales, pero es imposible actuar sobre la fecha de nacimiento sin bloquear otros fragmentos de información sobre la persona.
OpenAI parece no tener ningún tipo de mecanismo para corregir la información falsa en ChatGPT, solo puede ocultarla al final del proceso. Aún cuando se bloquee el dato, este seguirá siendo parte del sistema.
Confianza y transparencia
NOYB apunta que las empresas parecen no tener aún la capacidad para crear chatbots que ofrezcan resultados confiables y transparentes. Mientras no cumplan con este requisito no deben utlilzarse para generar datos sobre las personas.
Una definición acertada
En la presentación NOYB señala que los modelos de lenguaje calculan de forma estadística la probabilidad de que una combinación de palabras aparezca en un contexto determinado, y ofrecen el resultado más probable. Esta operación es posible gracias al entrenamiento de los algoritmos con largas bases de datos.
Lo que llamamos IA, cabe siempre recordar, es un instrumento de cálculo.
Fundamentalmente, el sistema no sabe lo que dice.