El Parlamento Europeo ha aprobado el Acta de las IA. Esta legislación tiene como objetivo paliar los riesgos que surgen de la implementación de la tecnología de inteligencia artificial. Según los creadores la idea es que las personas vuelvan a estar en el centro de la escena. Sobre el acta cada país de la Unión Europea deberá construir su propio marco normativo.
El acta se basa en una idea relativamente sencilla: la clasificación de los distintos productos según el nivel de riesgo que implican. Cuanto mayor el riesgo de que una IA produzca daño a la sociedad, mayor el nivel de exigencias y supervisión. El factor fundamental en esta consideración no es tanto la potencia como el uso.
Clasificación
La gran mayoría de las IA entrarán en la categoría de bajo riesgo. Por lo tanto no tendrán que lidiar con muchas pautas de conducta. Aquí entran aquellas alternativas que ofrecen servicios sencillos, tales como la eliminación de spam en las cuentas de correo.
Las inteligencias artificiales de alto riesgo son las que son usadas, por ejemplo, en el ámbito de la educación, la salud, el manejo de los procesos electorales, la infraestructura crítica y el control de las fronteras. En este caso cabe esperar un control más estricto.
La última categoría corresponde a aquellas alternativas que son un claro riesgo para los derechos fundamentales de los seres humanos. En estos casos extremos se establece la prohibición de dichos recursos. El ejemplo dado es el de algunas IA que procesan datos biométricos.
Transparencia
El acta también se encarga de establecer reglas claras para las IA generativas. Los desarrolladores de estos sistemas deberán ofrecer toda la información pertinente sobre el material utilizado para el entrenamiento de las IA. También deberán asegurarse de cumplir con las leyes de derecho de copia.
Muchas de las empresas detrás de los desarrollos más importantes de la industria han sido fuertemente cuestionadas en ambos aspectos. Por ser poco transparentes y emplear material que no les pertenecía y no era de dominio público.
Ejecutivos de compañía como OpenAI han defendido sus prácticas señalando que tomar líbremente todo lo que puedan encontrar en Internet es la única forma de obtener suficiente material para el entrenamiento de los modelos. Sin embargo, los tratos que algunas empresas como Google han estado gestionando con grandes plataformas con importantes bases de datos hacen pensar que ya se están preparando para un marco legal más exigente.