Hace poco les contamos sobre los ganadores del premio Nobel. Entre ellos aparecía Geoffrey Hinton, uno de los pioneros en el desarrollo de las redes neurales. Un detalle que en ese momento pasamos por alto es que Hinton tuvo entre sus estudiantes a un hombre bastante conocido en la actualidad de la industria. Se trata de Ilya Sutskever.
Sutskever realizó su trabajo de doctorado en la Universidad de Toronto bajo la supervisión de Hinton. Posteriormente, en 2012, profesor y alumno trabajaron juntos para crear la red AlexNet.
Premio Nobel de física lamenta su aporte al desarrollo de las IA
Sutskever y Altman
El ejecutivo fue uno de los fundadores de OpenAI antes de abandonar la empresa para fundar Safe SuperIntelligence. El motivo de su partida fue el fuerte desencuentro que tenía con Sam Altaman, CEO de OpenAI.
Aunque ambos parecían mantener una buena relación a nivel personal, Sutskever entendía que la empresa había relegado la problemática de seguridad en favor de lanzar productos lo más rápido posible. Esta preocupación parece compartirla con su mentor, que en cierta ocasión señaló que el impacto que podía tener la inteligencia artificial en la sociedad lo asustaba.
El despido
Como el lector recordará Sutskever jugó un papel importante en el breve despido de Altman de OpenAI. En ese momento la junta directiva había acusado al CEO de no informar debidamente al organismo de gobierno. Más tarde, cuando muchos empleados e inversores presionaron para el regreso de Altman Sutskever se arrepintió de su decisión.
Sin embargo, Hinton afirma estar particularmente orgulloso de que uno de sus estudiantes haya despedido a Altman.
Enfrentamiento
La actitud frente a la inteligencia artificial puede verse como una disputa entre quienes se enfocan más en el aspecto científico y quienes privilegian la innovación práctica. O quienes se preocupan más por la seguridad y quienes priorizan el mercado.
Por supuesto, en la vida real las fronteras son más borrosas. Pero la tensión es real. Hinton y Sutskever creen que debería priorizarse la investigación en cuestiones de seguridad, porque entienden que una inteligencia artificial superior a la humana podría ser muy peligrosa si no es debidamente controlada. Otros entienden que todo puede corregirse luego, siempre y cuando se avance a buen ritmo en la investigación en general.