Geoffrey Hinton fue uno de los creadores de los sistemas de redes neurales que se convirtieron luego en la base para el desarrollo de la inteligencia artificial. Por este trabajo obtuvo el premio Nobel de Física. Sin embargo, no todas las consecuencias de su trabajo han sido de su agrado y no ha tenido problema alguno en señalarlo.
Hinton: 20% de posibilidades de que las IA terminen con la humanidad
Recientemente, durante una entrevista concedida a CBS Mornings, ha vuelto a advertir sobre los riesgos que supone el desarrollo de las IA. También ha apuntado contra las compañías por su irresponsabilidad.
“Si consideras la posibilidad de que estas cosas se vuelvan más listas que nosotros y simplemente tomen el control, simplemente lo tomen, la probabilidad de que eso pase debería ser mayor al 1% y también debería ser menor al 99%. Y en esto todos los expertos están de acuerdo”. Hinton destaca con esta frase el hecho de que el riesgo existe, aunque haya diferencias de opiniones al respecto. Por su parte, estima que las posibilidades están entre el 10% y el 20%.
La humanidad, entiende, tiene un cachorro de tigre en su casa. Salvo que esté muy segura de que no intentará morderla cuando crezca, debería preocuparse.
Menos regulaciones, más riesgos con la IA
Aunque muchas de sus preocupaciones son compartidas por los gerentes de las desarrolladoras, ninguno de ellos parece realmente actuar a consecuencia. “Si observas lo que las grandes compañías están haciendo actualmente, están presionando para que haya menos regulaciones sobre las IA. Hoy en día hay muy poca regulación, pero ellos quieren menos”.
Hinton remarca que deberían destinarse más recurso a seguridad, un tercio de los destinados a poder de cómputo. Por lo dicho es necesario que el público presiona al gobierno para que haga algo serio al respecto.