Sam Altman, el director de OpenAI ha participado en un evento del MIT durante el cual reflexionó sobre la carta abierta del Future of Life Institute. El ejecutivo coincidió con algunas de las preocupaciones y planteos presentados y descartó por el momento que la compañía esté trabajando en ChatGPT-5.
La carta
Altman señaló que estaba de acuerdo con parte de lo expresado en la carta abierta. Destacó que OpenAI había entrenado ChatGPT-4 durante 6 meses antes de lanzarlo al mercado. Durante ese tiempo se habían hecho varias pruebas de seguridad con equipos destinados a entender su funcionamiento y mitigar cualquier riesgo.
A pesar de esto el empresario admitió existe la necesidad de ser más serios sobre las opciones de seguridad de los sistemas. Los estándares al respecto tienen que elevarse.
Lo único que lamenta de la carta es que no establezca aspectos concretos sobre que elementos del desarrollo deben detenerse.
Ante el peligro de las IA
No sorprende que Altman reconociera los riesgos en el desarrollo de las IA. Ya había confesado sus temores al respecto hace un tiempo. La discusión se centra en qué hacer ante el riesgo. La carta plantea la necesidad de suspender el desarrollo salvo para cuestiones de seguridad. Apunta que hay que enfocarse en dicha área durante unos 6 meses. Altman desestima esta opción en favor de un control más estricto por parte de las empresas desarrolladoras.
El problema con la postura de Altman es que las empresas están muy presionadas para ser las primeras en implementar la tecnología e imponer sus opciones en el mercado. Y todavía no existen regulaciones adecuadas que guíen al sector.
Algo más destacable parece el comentario del empresario sobre la necesidad de entablar un dialogo con todas las instituciones de la sociedad. Deben pensarse adaptaciones e incluso crear nuevos organismos que nos ayuden a decidir que es lo que queremos para el futuro.
ChatGPT-5
Altman ha aclarado que OpenAI no se encuentra trabajando en ChatGPT-5. Aunque es algo que eventualmente puede ocurrir en el futuro.