El equipo de desarrolladores detrás del proyecto Deep Mind de Google en Londres ha puesto el ojo en un nuevo objetivo: Enseñarle a una computadora a jugar al futbol. En realidad se trata de una versión virtual, pero físicamente realista del juego.
La idea es que la experiencia sea similar al modo en que los seres humanos aprenden a jugar. Similar en el sentido de que la IA empieza prácticamente sin ningún conocimiento previo. De hecho, al principio los agentes no saben siquiera como caminar. El motor utilizado para esta tarea es el MuJoCo, una herramienta de simulación física avanzada y de código abierto. La investigación realizada ha sido publicada en Science Robotics.
De lo más sencillo a lo más complejo
El sistema de aprendizaje en este proyecto divide las habilidades en tres niveles. Las más simples, tales como levantarse o correr, fueron adquiridas a través de la imitación de los datos obtenidos a través de un sistema de captura de movimiento.
El nivel intermedio incluye tanto maniobras para esquivar al contrario como remates. En este caso se empleó el sistema de aprendizaje por recompensa.
El tercer nivel, que está vinculado a los pases, los bloqueos y el trabajo coordinado se desarrolló a través de partidas de 2 equipos con dos jugadores de campo cada uno. Empleando una vez más el sistema de recompensas.
Progreso
Por fines prácticos el juego ha sido simplificado. Los agentes compiten en un campo con paredes invisibles que mantienen la pelota dentro de los límites. No se cobra ningún tipo de falta.
Al principio los jugadores realizaban movimientos al azar, sin ningún tipo de afán competitivo. Luego de 3 días de entrenamiento (5 años de partidos simulados para la IA), los agentes eran capaces de correr hasta la pelota y marcar un gol. Mucho más de lo que podemos decir de muchos jugadores de primera división. Luego de 50 días, los agentes mostraron mayor coordinación y capacidad para anticipar las consecuencias de las acciones dentro del campo de juego.