MAR, 3 / SEP / 2024

Anthropic y OpenAI llegan a un acuerdo para que EEUU examine sus modelos

De tal tarea se encargará una agencia dedicada a evaluar la seguridad de las IA. El trabajo será colaborativo.

Dos de las empresas más importantes en el ámbito del desarrollo de los sistemas de inteligencia artificial han llegado a un acuerdo con las autoridades de los Estados Unidos para el sector. OpenAI y Anthropic han acordado con el Insituto para la Seguridad de las IA que sus modelos sean examinados antes de que estén disponibles en el mercado.

Un primer paso

El instituto ha señalado que trabajará en colaboración con las empresas para elaborar un método de evaluación de capacidades y riesgos, así como también en el establecimiento de métodos para mitigar dichos riesgos.

La directora del organismo, Elizabeth Kelly, apuntó: “La seguridad es esencial para alimentar a la tecnología innovadora y que abre nuevos caminos. Con estos acuerdos podemos comenzar a pensar en colaboraciones técnicas con Anthropic y OpenAI para el avance de la ciencia en la seguridad de las IA”.

Beneficios

Las empresas se beneficiarán con el consejo técnico de los expertos del instituto. Por otro lado, la aprobación de los modelos sin dudas resultará en un apoyo clave ante cualquier posible incidente con consecuencias legales. Podrán decir que siguieron todos los procedimientos de seguridad exigidos a nivel federal.

Establecer esquemas de seguridad que sean confiables, o al menos prácticas que demuestren que las empresas se toman en serio este aspecto puede ser clave para la industria. Como respuesta a muchas malas experiencias tanto el público como los legisladores y reguladores, han comenzado a plantear la necesidad de poner límites y guías al accionar de las empresas.

Al mismo tiempo, los gobiernos tienen un claro interés en que sus países no se queden atrás en el desarrollo de la tecnología. Sobre todo considerando las ocasiones en las que estos medios son utilizados para la propaganda, tareas de inteligencia y seguridad.

¡Comparte esta noticia!