Microsoft, OpenAI, Alphabet y Anthropic se han unido para crear Frontier Model Forum, un espacio dedicado a regular el desarrollo de los modelos de aprendizaje automatizado. El grupo tendrá como objetivo establecer una serie de normas de seguridad y responsabilidad.
En particular, el interés está en el área de los modelos de frontera. Las opciones más avanzadas de IA. Estos desarrollos ofrecen nuevas capacidades con gran potencial, pero también son un riesgo para el bien público.
El rol del foro
Las empresas tecnológicas dedicadas al desarrollo de las IA parecen haber aprendido una importante lección de lo ocurrido con algunas tecnologías disruptivas durante estos últimos años. En particular las criptomonedas. Si la tecnología produce demasiado alboroto, tarde o temprano los gobiernos actúan. Si las empresas se descuidan y no establecen buenas prácticas corren un doble riesgo, tanto por lo que hacen mal como por lo que los reguladores pueden exagerar luego.
Así pues la creación del foro es una manera más de establecer una relación de diálogo con las autoridades en la que muchas decisiones llegarán a través del consenso.
El Frontier Model Forum se concentrará en el desarrollo de sistemas de seguridad y la definición de buenas prácticas para la industria. Para tal fin trabajará en colaboración con legisladores y miembros de la comunidad académica. También tendrá un grupo de asesores. Desde OpenAI han asegurado que la organización no realizará tareas de lobby (influencia empresarial).
Brad Smith, presidente de Microsoft ha asegurado que “las compañías creadores de tecnología IA tienen la responsabilidad de asegurarse de que sea segura y permanezca bajo control humano”.