VIE, 14 / MAR / 2025

Google afirma que las IA necesitan energía, menos control y más datos

La compañía cree que se debería balancear el derecho de copia y la privacidad con las necesidades de la industria. Advierte contra el riesgo de que EEUU pierda su liderazgo.

Estados Unidos ha pedido que se le acerquen propuestas para elaborar una estrategia para el desarrollo y la regulación de las IA. En otro artículo hemos destacado algunos puntos de un texto publicado por OpenAI, en este nos referimos al que presentó Google. Dejamos el enlace para quienes quieran consultar el original que contiene temas que hemos dejado de lado.

OpenAi advierte contra DeepSeek y los límites al entrenamiento en los países democráticos

El potencial de la tecnología

Mucho de los que se ve en el texto de Google es similar a lo que se puede encontrar en el de OpenAI. Ambas empresas comparten una visión de la industria como un factor clave para el desarrollo del país y la geopolítica de las próximas décadas. Las IA son tanto instrumentos útiles como medios de poder. La compañía señala que el potencial de la inteligencia artificial es casi ilimitado. Y que ya hemos visto como puede revolucionar la atención médica, acelerar el descubrimiento científico y transformar la economía.

Google, quizás porque se ha dado más de un buen golpe al lanzar el siguiente gran producto, es algo más mesurada que OpenAI al hablar del futuro de las IA. Las áreas de salud y ciencia son dos de las que mejor han aprovechado la nueva tecnología.

La energía

Un aspecto que aparece en la propuesta de Google es la problemática de la energía. La compañía reconoce que la adopción a escala de las IA llevará a un aumento en el costo energético. Afirma que el gobierno debería adoptar políticas que aseguren la disponibilidad de este recurso para los centros de datos y otros negocios relacionados. Esto es esencial para mitigar los riesgos de las inversiones.

El lector seguramente recordará que durante los últimos meses las empresas del sector han estado cerrando acuerdos para asegurarse la provisión de energía eléctrica. Una de las opciones más populares ha sido la instalación de pequeñas centrales nucleares.

Google apuesta a los reactores nucleares modulares para alimentar a sus IA

El control de la tecnología

Google, al igual que OpenAI, apunta a la necesidad de controlar la exportación de la tecnología. Sin embargo, a diferencia del texto producido por la firma liderada por Sam Altman, China no aparece como una figura amenazante que debiera definir la política de Estados Unidos. De hecho apenas es mencionada en dos oportunidades y por un tema de patentes.

Los controles, afirma Google, deben ser cuidadosamente elaborados. El temor es que algunas medidas puedan perjudicar a la industria al poner demasiada presión sobre los proveedores de servicios en la nube.

Sobre los riesgos inherentes de la inteligencia artificial, Google plantea que durante mucho tiempo desde el estado se ha estado prestando demasiada atención a este aspecto. Al mismo tiempo se ha descuidado el avance científico y el liderazgo a nivel internacional. Aún más osado parece la afirmación de que el desarrollador tiene poco o nada de control sobre el uso que se hace de su modelo y no debería ser juzgado a consecuencia.

Entrenamiento y derecho de copia

Google apunta a la necesidad de establecer un equilibrio entre las necesidades de desarrollo de las IA y los derechos copia. Afirma que el modo en que ha actuado hasta ahora la industria ha sido clave para el desarrollo de las IA.

Obviamente, desde esos primeros días hasta ahora, un campo que antes no estaba regulado ha comenzado a considerarse. Esto ha descolocado a las empresas un poco.

Google cree que deberían hacerse excepciones para que las IA puedan entrenar con material bajo derecho de copia que esté disponible de forma pública. Y que bajo ese esquema los poseedores de los derechos, los autores, no sufrirían mayores perjuicios. La alternativa, plantea la empresa, son negociaciones largas, impredecibles y desequilibradas con los poseedores de los derechos.

Paul advierte contra el despojo a los autores

Puede señalarse que en realidad está bien que la negociación sea desequilibrada. Porque unos son los dueños del material producido y otros no. Los consumidores a menudo han enfrentado negociaciones desequilibradas con grandes empresas tecnológicas.

Entrenamiento y privacidad

La compañía señala que se necesita una regulación federal sobre los datos privados que establezca una serie de categorías. Afirma que los datos que permanecen anónimos no deberían tratarse de la misma manera que aquellos que pueden vincularse a una persona. Una vez más se sostiene que deberían hacerse excepciones para los datos disponibles de forma pública.

X venderá los datos de sus usuarios a desarrolladoras de IA

El tema del anonimato es complejo, porque no solo supone el deseo de una persona a no ser identificado. A veces también implica la necesidad de controlar los datos, de que una historia médica o un perfil social no circule libremente porque el usuario sabe que es él o ella quien está allí.

Darle a las personas la posibilidad de decidir si compartir o no la información parece la solución más práctica para esas personas. Obviamente no para las desarrolladoras de IA.

¡Comparte esta noticia!
TAGS