Google DeepMind aprendiendo a jugar StarCraft II
StarCraft, uno de los juegos con más fans alrededor del mundo recibió la atención de DeepMind, el sistema de inteligencia artificial de Google y se espera que esta rete a los gamers en un futuro.
Antonio Paredes / 06.11.2016 / 12:04 am
Google DeepMind, el sistema de inteligencia artificial de Google no sólo aprendió a jugar Go y venció al campeón mundial sino que la empresa de buscador pretende que sepa muchas más cosas por medio del aprendizaje profundo o deep learning.
El enfrentamiento entre humanos y máquinas en salas de juego es algo que ya tiene mucho tiempo, quizá el más recordado fue el de Deep Blue de IBM vs Gary Kaspárov, considerado el mejor ajedrecista de todos los tiempos.
En esta ocasión, el nuevo reto que se proponen en Google es dominar el popular juego de estrategia StarCraft. Desde Google afirman que las capacidades de los jugadores de StarCraft que se depempeñan bien podrían ser trasladadas a tareas del mundo real.
Cabe destacar que existen otras iniciativas de inteligencia artificial aprendiendo StarCraft como Overmind de la Universidad de Berkeley y TorchCraft de Facebook.
Tanto el desarrollo de Facebook como el de Google publicarán sus herramientas para que desarrolladores de todo el mundo las usen.
Se espera que en un futuro cercano la inteligencia artificial derrote a los mejores gamers del mundo en este tipo de juegos, lo cual sería sin duda algo histórico. Para realizar este desarrollo, DeepMind recibió la colaboración directa de Blizzard Entertainment, creadores del juego.
En el siguiente video podremos apreciar algunos de los avances logrados hasta el momento por el equipo de DeepMind.
Video: StarCraft II jugado por DeepMind
Fuente: Blog de DeepMind
TECNOLOGÍA 21

Medio especializado en publicaciones tecnológicas con enfoque en negocios desde 2007.
Nuestro alcance principal comprende Iberoamérica.