Estados Unidos ha hecho un llamado para recibir propuestas para la creación de un marco normativo para las IA. Dos empresas se han apurado a ofrecer sus consejos: OpenAI y Google. En este artículo hemos seleccionado algunos apartados del texto de OpenAI que nos parecieron interesantes. En otra publicación compartimos la visión de Google.
Google afirma que las IA necesitan energía, menos control y más datos
IA avances y costos
OpenAI presenta el actual estado del desarrollo de las IA como en una etapa de aceleración y siendo las herramientas cada vez más asequibles. Afirma que la inversión en la industria supone ganancias en magnitud.
Apunta que el costo de usar un nivel dado de inteligencia artificial cae a un décimo cada 12 meses y eso lleva a un mayor uso. También se apunta que la ley de Moore indica un duplicación del número de transistores cada 2 años, lo que reduce el costo de las IA dramáticamente. La compañía destaca que el tiempo que se necesita para mejorar una IA ha disminuido constantemente. Y que las IAG serán responsables de una mejora en la productividad, la prosperidad, la innovación y nos dejarán enfocarnos en lo que hace la diferencia.
Una pequeña crítica
Todo lo dicho por OpenAi puede ser cierto bajo cierto ángulo. Pero en general va en contra de lo que hemos visto en los últimos meses. Las mejoras entre un modelo y otro se suceden a gran ritmo, pero son cada vez más marginales. También son mucho más costosas en lo que se refiere a recursos y precio. Esto no es algo que hemos estimado nosotros, son números de OpenAI y otras empresas del sector.
ChatGPT 4.5 tiene potencial, pero es enorme y extremadamente caro
Por otro lado, muchos de los nuevos modelos vienen con un precio menor en opciones básicas con funciones reducidas.
La amenaza China
Otro aspecto que OpenAI ha resaltado es la necesidad de promover los valores democráticos. Esto puede leerse básicamente como “nuestros desarrollos son buenos, los de China son malos”. La compañía destaca:
Un mercado libre que promueva la competencia que lleva a la innovación.
Libertad para que los desarrolladores y usuarios trabajen con las herramientas como lo deseen. A cambio deben seguir los estándares de seguridad y ser responsables de cualquier transgresión.
La prevención del uso por parte del gobierno para concentrar poder y controlar a los ciudadanos o presionar a otros estados.
OpenAi plantea que este modelo democrático compite con el del partido comunista de China para ver cuál será el dominante en 2030. Afirma que DeepSeek es notable, no por sus capacidades, pero por la competencia que supone. Dado que el modelo es financiado y controlado por el estado es muy probable que sea manipulado para causar daño según los intereses del estado.
Otra nota aclaratoria
Mucho de lo que advierte OpenAI sobre DeepSeek es cierto. Ya hemos visto el nivel de censura y manipulación al que ha sido sometido el contenido del modelo de origen chino. Sin embargo creemos que no son solo los estados los que no deberían usar a las IA para concentrar poder.
Por otro lado OpenAI señala que los modelos chinos no respetan las restricciones sobre el derecho de copia y el entrenamiento de las IA. Tampoco respetan el trabajo de entrenamiento de otras empresas. Y que estos las pone en una situación de ventaja al tiempo que las legislación de protección hacen poco bien a los creadores originales. Básicamente, se queja de que debe respetar la ley mientras su rival puede robar impunemente. Siendo justos, cree que la ley en realidad no debería aplicársele.
Transformación y derecho de copia
En el texto presentado OpenAI insiste en que el uso del material bajo derecho de copia y de acceso público es justo. Afirma que la IA es entrenada para extraer patrones, estructuras lingüísticas y deducciones contextuales. Que evita replicar los trabajos que consume. Apunta que lo que crea es totalmente diferente y no deteriora el valor comercial de los trabajos con los que ha entrenado.
No creemos que haya una respuesta definitiva a esta problemática. En ocasiones las IA producen objetos interesantes y distintivos (o al menos difíciles de rastrear a una o pocas imágenes de origen), pero a menudo se acercan mucho a los originales. El espectro es amplio y es difícil determinar un punto exacto en el que pasamos de un caso a otro. Aún con los seres humanos a veces es complicado. Pero al menos los seres humanos tienen que esforzarse para producir algo.
OpenAI afirma: “Aplicar la doctrina de uso justo para las IA no es solo un asunto de interés para la competitividad de los EEUU, es un asunto de seguridad nacional”. Porque las alternativa es el dominio de DeepSeek. Nadie puede culpar a una empresa por hacer el mejor argumento posible para impulsar sus intereses. A nosotros nos toca intentar criticar con justicia lo que dice. Y a los lectores luego hacer su propio juicio crítico.
EEUU: Entrenar IA con material bajo derecho de copia no es uso justo