OpenAi tenía un grupo de profesionales de gran experiencia destinado a evaluar los riesgos que podían traer a largo plazo las inteligencias artificiales. Lamentablemente la comisión se desarmó luego de que sus miembros renunciaran y criticaran a la empresa por impedir el normal cumplimiento de sus tareas.
La compañía tenía una cláusula de silencio que impedía las críticas de los empleados salientes. De hacerlo perdían sus opciones para las acciones de OpenAI. Ese detalle también salió a la luz y tuvo que ser eliminado rápidamente antes de que la imagen de la organización se deteriorara aún más.
El nuevo comité
Más recientemente OpenAI ha anunciado la creación de un nuevo comité de seguridad. En el estarán su CEO, Sam Altman, el jefe de la junta Bret Taylor y uno de sus miembros, Nicole Seligman. No son los únicos, también participan, entre otros, el jefe de seguridad, Matt Knight y la jefa de seguridad de sistemas, Lilian Weng.
Básicamente, gran parte de los altos mandos de la empresa.
OpenAI seguirá consultando con expertos externos.
El nuevo modelo
El anuncio sobre el nuevo comité llega en paralelo al anuncio del comienzo del entrenamiento de un nuevo modelo, que la empresa espera sea el siguiente paso para conseguir una Inteligencia Artificial General. Esto es, un modelo capaz de realizar cualquier actividad con el mismo (o mayor) nivel de inteligencia que un ser humano. Muchos expertos han señalado que la producción de una inteligencia general es de por sí un objetivo de riesgo.
Es difícil saber si Sam Altman aconsejando a Sam Altman nos deja más tranquilos.
En imagen principal: Sam Altman considera los riesgos de las IA.