El ministro de electrónica y tecnología de la información de India, Rajeev Chandrasekhar, ha publicado una recomendación que apunta que las IA en desarrollo deberían obtener un permiso del gobierno antes de ser ofrecida al público.
La iniciativa está dirigida a los modelos de lenguaje, los generativos y los algoritmos relacionados que no hayan sido probados suficientemente y por lo tanto no se pueden considerar confiables. En estos casos su distribución solo podría desarrollarse con un permiso explícito del gobierno y luego de establecer mecanismos que informen sobre las falencias de los sistemas.
En el documento también se menciona el uso de mecanismos para informar a los usuarios de los posible errores. También se sostiene la necesidad de marcar con metadatos y otros sistemas los deepfakes.
Por ahora solo se trata de una propuesta. De convertirse en ley los desarrolladores deberían aplicar para recibir el permiso de distribución. En ese momento se podría solicitar una demostración frente a funcionarios de gobierno y pruebas de estrés.
Objetivos
El señalamiento de los modelos en desarrollo, todavía no suficientemente probados, parece algo extraño. No hay forma de saber cuando una empresa ha probado lo suficiente su modelo hasta someterlo a una prueba. En teoría la exigencia debería ser universal.
Los términos empleados tienen algo más de sentido cuando seguimos otro de los señalamientos de Chandrasekhar. El funcionario señala que las empresas detrás de las IA generativas y las plataformas de IA deberán hacerse responsables de lo que estas hagan y no podrán excusarse diciendo que el servicio está en una etapa de prueba.
Así pues, el gobierno básicamente sostiene que o bien la empresa ofrece su garantía cuando distribuye una IA, o deja que el gobierno juzgue si está lista o no.
Otro objetivos de fondo
En términos generales la exigencia que plantea el ministro parece justa. Sin embargo es necesario señalar que puede tener motivaciones adicionales. Hace poco Gemini, la IA de Google, señaló que el primer ministro de India había aplicado políticas que algunos expertos caracterizan como propias del fascismo.
Chandrasekhar criticó a Google por lo ocurrido, pero la empresa se excusó afirmando que las IA generativas no son siempre confiables.
Durante los últimos años India ha aumentado su control sobre Internet, exigiendo la censura de contenido a varias plataformas.