MIE, 30 / ABR / 2025

Actualización de ChatGPT la convierte en un adulador insufrible

OpenAI ha tenido que volver a una versión anterior de su modelo GPT-4o. Las últimas modificaciones habían hecho que su personalidad fuera demasiado complaciente.

Los sistemas de inteligencia artificial son, de una forma muy básica, sistemas de predicción. Además de buscar la respuesta correcta a cualquier consulta intentan descubrir qué es lo que verdaderamente desea el usuario. A menudo hemos escuchado que esta necesidad de complacer puede jugar en contra a la hora de responder con honestidad y hasta puede reforzar conductas negativas y prejuicios.

Hace poco les contamos como Anthropic había examinado el modo en que pensaban las IA. Y había observado una tendencia a estar de acuerdo con el usuario, aunque en el caso de Claude también en muchos casos se mantenían los valores.

Anthropic investiga los valores de Claude

Las IA Sicofanta

Recientemetne OpenAI ha tenido que revertir los cambios realizados a su modelo GPT-4o. Esto ocurrió luego de que muchos usuarios reportaran que el chatbot se estaba comportando de forma extraña. Era demasiado halagador, demasiado incondicional.

El CEO de la compañía, Sam Altman, describió el resultado en su cuenta de X:

“El último par de acutalizaciones de GPT-4o han hecho que su personalidad sea demasiado similar a un sicofante y también muy molesta (aunque hay algunas partes buenas), y estamos trabajando rápidamente en algunos arreglos, algunos para hoy, otros para la semana.”

Un sicofante es una persona que busca obtener beneficios o una posición de privilegio a través de la adulación de aquellos que tienen poder o influencia. Dado la amplia gama de consultas que realizan los usuarios a las IA, la posibilidad de un modelo que siempre estuviera de acuerdo con el usuario es preocupante. También el aliento a conductas perjudiciales.

Comentarios
¡Comparte esta noticia!
TAGS

Comments are closed.