MIE, 9 / OCT / 2024

Premio Nobel de física lamenta su aporte al desarrollo de las IA

Geoffrey Hinton fue uno de los pioneros en el campo de las redes neuronales. Ahora cree que las IA son peligrosas y empresas como OpenAI no invierten suficiente en seguridad.

El premio Nobel de Física ha sido otorgado a Geoffrey Hinton y John Hopfield. El motivo han sido los descubrimientos e invenciones que han aportado para que el aprendizaje automatizado en redes neurales fuera posible.

Los aportes

Hopefield creó en 1982 una red neuronal capaz de almacenar muchos patrones y devolverlos desde la memoria distinguiendo unos de otros. La red bautizada con su apellido fue descrita por el científico utilizando esquemas derivados del concepto de red de espín de la física. El sistema resultante es considerado un equivalente a la memoria asociativa.

Hinton es uno de los pioneros del desarrollo de las redes neurales. Mucho de su trabajo está inspirado en el de Hopefield. El aporte de Hinton se basa en ideas tomadas del mundo de la mecánica estadística. La consideración de las probabilidades permitió conformar un sistema capaz de interpretar el contenido de las redes neuronales. La red resultante es conocida como la máquina de Boltzmann. Esta red puede aprender de los datos, reconocer rasgos familiares y nuevos ejemplos de un objeto.

Lamentos y temores

Durante un tiempo Hinton fue uno de los consejeros de Google sobre este campo. Sin embargo, se apartó de la compañía debido a las preocupaciones que tenía sobre el peligro que los sistemas de IA suponían.

Hinton lamenta el modo en que influyó en el desarrollo de las redes neuronales y afirma que el impacto que pueden tener en la sociedad lo asusta. “Me consuelo con la excusa habitual: Si yo no lo hubiera hecho, alguien más lo hubiera hecho”. 

Recientemente afirmó: “Estamos en una encrucijada de la historia, durante los siguientes años tenemos que pensar como vamos a lidiar con esta amenaza. Una cosa que los gobiernos pueden hacer es obligar a las empresas a gastar más recursos en la investigación de seguridad. Compañías como OpenAi no pueden simplemente posponer la investigación en seguridad”

¡Comparte esta noticia!