Texto: Eduardo Moreno y Sara Robisco
Los juegos han acompañado al ser humano desde la prehistoria, es un hecho contrastado por la arqueología ya que se han encontrado vestigios de juegos que ahora llamaríamos de mesa que se remontan muchos miles de años atrás, con piezas talladas en piedra, incluidos dados, bastones o aros, que sugieren actividades lúdicas primitivas. Eso sí, la siguiente parada en un supuesto viaje en el tiempo sería, cómo no, allí donde todo empieza, las antiguas civilizaciones de Mesopotamia y Egipto. En la tierra de los faraones se jugaba al Senet en un tablero de 30 casillas y era popular entre los faraones egipcios, como se evidencia por hallazgos arqueológicos en las tumbas reales. Se encontraron cuatro, por ejemplo, en la tumba de Tutankamón. En Mesopotamia encontramos el Juego Real de Ur, hallado en las tumbas de esta antigua ciudad sumeria y tiene la curiosa circunstancia de que se han encontrado pruebas de que se ha seguido jugando hasta hoy día en diversos lugares del mundo. Un juego que ha sabido sobrevivir a los tiempos.
El origen del Go
Pero el protagonismo de hoy queremos dárselo al Go, un juego de mesa originario de China, con quizá más de 4.000 años de historia, y que no solo es que se haya mantenido vivo en el tiempo, sino que es un auténtico fenómeno hoy día en su país de origen, Japón o Corea y fue considerado en tiempos una de las cuatro artes esenciales de la antigua China.
Su origen concreto no es claro, se dice que fue creado como un juego educativo en la corte del emperador Yao en el tercer milenio antes de nuestra era, pero por sus características también se cree que pudo haber sido creado con fines militares. De hecho, se le conoce como juego de envolvimiento.
El Go se juega sobre un tablero cuadrado dividido en una cuadrícula de 19×19 líneas. Cada jugador dispone de piedras de un color (blancas o negras) y las coloca en las intersecciones de las líneas del tablero. El objetivo del juego es controlar el mayor territorio posible mediante la colocación estratégica de sus fichas y la captura de las del oponente.
Lo interesante del Go es el contraste que supone la simplicidad de sus reglas básicas con la complejidad de las estrategias que desarrolla en una base tan sencilla. Los jugadores alternan turnos colocando una piedra en cualquier intersección vacía con la intención de formar territorios. Las piedras rodeadas completamente por las del oponente son capturadas y retiradas del tablero. Con la colocación de estas piedras desarrollando estrategias a largo plazo no solo se trata de ganar territorio, sino también de desarrollar patrones y estructuras que aseguren la influencia sobre el tablero. Existen tantas posibilidades que cada partida es un mundo distinto, lo que ha convertido este juego, precisamente, en una herramienta perfecta para el desarrollo de las tan de moda inteligencias artificiales.
El Go y la inteligencia artificial
Como ocurrió con el ajedrez, pasaron años hasta que la tecnología pudo ponerse al nivel de la inteligencia humana y de los grandes jugadores de este juego. Como decimos, el Go mantiene una enorme complejidad y la cantidad de posibles movimientos en cada turno hacen de su juego todo un desafío para los desarrolladores de las IA.
La máquina comenzó a cambiar las cosas en 2016. En aquel año AlphaGo, una inteligencia artificial desarrollada por DeepMind, venció al campeón mundial coreano Lee Sedol en una serie de partidas que reunieron una gran atención mediática, la versión Go de la famosa victoria de DeepBlue ante el ajedrecista Kaspárov.
AlphaGo está desarrollado usando técnicas de aprendizaje profundo, lo que conocemos comúnmente como Deep Learning. El aprendizaje profundo es un subconjunto del aprendizaje automático (Machine Learning), en el que se emplean redes neuronales con muchas capas y muchos nodos por capa, lo que conocemos como redes neuronales profundas. Las redes neuronales que forman AlphaGo fueron entrenadas primero con movimientos de expertos humanos y después se las modificó para que aprendiesen mediante aprendizaje por refuerzo, entrenándolas jugando contra sí mismas.
Pero ¿qué es el aprendizaje por refuerzo? Son sistemas que van aprendiendo mediante su propia experiencia, en nuestro caso sus jugadas afectan al entorno y a las jugadas del oponente, cambiándolo todo. Por ello, tras una jugada, estos modelos son capaces de evaluar si la acción tomada fue correcta o si fue un error que no pueden repetir.
Poco después se desarrolló AlphaGo Zero, comúnmente conocida como AlphaZero, que está puramente entrenada mediante aprendizaje por refuerzo, sin datos humanos, ella es su propio maestro. Este sistema se compone de dos redes neuronales profundas: una red neuronal que es entrenada para predecir la propia selección de movimientos de AlphaZero (llamada red de política) y otra red neuronal profunda que hace una evaluación de la situación del tablero para saber si la jugada fue buena o mala (llamada red de valor). Este modelo fue entrenado haciéndola jugar 29 millones de partidas contra sí misma antes de considerarla apta para ponerla a jugar contra humanos. A diferencia de Deep Blue, que usaba búsqueda en árbol para decidir sus movimientos, la red neuronal de AlphaZero tiene una mejor selección de movimientos y un juego personal muy fuerte. Al no haberse entrenado con datos humanos, este modelo no tiene sesgos de estrategias normalmente usadas por las personas, lo que le hace tomar decisiones que un humano no se espera.
Esto hizo que cuando jugó contra humanos, muchos de ellos se sorprendieran por los movimientos que hacía, algunos inesperados o extraños, pero que llevaban a la máquina a la victoria. Así que quizá los juegos de mesa, un ejemplo milenario de la inventiva humana como este Go, quizá nos estén ayudando a crear un nuevo tipo de inteligencia. Esperemos que sea para bien.
Más divulgación cultural en nuestro podcast: www.elabrazodeloso.es