Activa las notificaciones para estar al tanto de lo más nuevo en tecnología.

juego-go-google00

Google ha dado quizás un gran paso al escribir un programa de Inteligencia Artificial con intuición más humana, desarrollando una computadora capaz de batir a un experto humano en el complejo juego oriental del Go. Este juego, que se juega en China desde hace más de 2500 años es relativamente simple de aprender: los jugadores deben mover, alternadamente, piedras blancas o negras en una malla de 19×19 intersecciones. El objetivo es rodear las piezas del oponente y evitar que el rival haga lo propio. Volverse un maestro en Go requiere de una práctica infinita (según se dice, se requieren unas 10,000 horas de entrenamiento contínuo para llegar a un nivel de maestro), así como entender los sutiles patrones que aparecen en el transcurso de una partida de Go.

Un equipo de Google ha mostrado que las habilidades para lograr la maestría en Go no son privativas del ser humano. Un programa llamado AlphaGo ha derrotado al campeón de Europa. Fan Hui, cinco juegos contra ninguno. Y este mes de marzo próximo será probado ante uno de los mejores jugadores del mundo, Lee Sedol, en un torneo que se llevará a cabo en Corea del Sur.

“Go es el juego más hermoso y complejo que haya sido inventado por los seres humanos”, dice Demis Hassabis, cabeza del equipo de Google en donde además es un avezado jugador de Go. Al vencer a Fan Hui, “nuestro programa logró vencer uno de los retos más importantes que tenía mucho tiempo sin resolverse en la IA”, comenta.

Hassabis dice que las técnicas para crear AlphaGo podrían llevar a su equipo a desarrollar una IA en general (aunque reconozcámoslo, esto jamás se ha podido hacer. Parece ser que el dominar un tema no necesariamente implica el extender éste a otros dominios. Este tipo de declaraciones se dijeron también cuando el programa Shrldu pudo entender el lenguaje natural en un micromundo de pirámides y cubos, pero que nunca pudo extenderse a otros dominios). Sin embargo, Hassabis cree que “en última instancia, lo que queremos hacer es aplicar estas técnicas a los problemas importantes del mundo real, porque los métodos que usamos fueron de propósito general y nuestra esperanza es que algún día puedan extenderse para ayudar a resolver los problemas más apremiantes de la sociedad, desde diagnóstico médico hasta el modelaje del clima”. Se espera que esta tecnología pueda ser aplicada en Google para desarrollar software para un mejor asistente personal. Tal asistente podría aprender las preferencias de los usuarios de su comportamiento en línea y hacer recomendaciones más intuitivas sobre productos o eventos.

 

AlphaGo fue desarrollado por un equipo conocido como DeepMind, un grupo creado después de que Google comprara una pequeña empresa en el Reino Unido llamada DeepMind, en el 2014. Los investigadores construyeron AlphaGo usando el ahora popular método de “aprendizaje profundo”, combinado con otra técnica de simulación para modelar los movimientos potenciales. El aprendizaje profundo involucra entrenar una gran cantidad de redes neuronales para responder a patrones en los datos. Se ha probado como una técnica útil en procesamiento de audio y de imágenes, y muchas compañías de tecnología están ahora explorando nuevas maneras de aplicar esta técnica.

Para el caso de AlphaGo se usaron dos redes de aprendizaje profundo: una aprendió a predecir la siguiente jugada y la otra aprendió a predecir el resultado de diferentes formaciones de las piezas en el tablero. Las dos redes se combinaron usando un algoritmo de IA más convencional para ver adelante en el juego (el look-ahead, imprescindible para ganar en estos juegos de suma-cero). Un artículo científico al respecto se publicó en la revista Nature.

“El juego de Go tiene un espacio de búsqueda enorme, el cual es intratable por búsquedas de fuerza bruta”, indica David Silver, otro investigador de Google que lideró este esfuerzo. “La llave de AlphaGo es reducir el espacio de búsqueda a algo más manejable”. Este enfoque hace que AlphaGo juegue más como los humanos que en programas anteriores. De hecho, el ajedrez contiene un problema similar en el espacio de búsqueda y se utilizan criterios heurísticos para hacer más manejable encontrar las mejores jugadas, cosa que desde hace unos diez años se avanza notablemente.

Cuando la máquina de IBM, Deep Blue, venció a Kasparov en 1997, usó reglas codificadas a mano y hizo búsquedas exhaustivas de las potencialmente mejores jugadas del tablero (200 millones de movimientos, que califica como fuerza bruta selectiva). AlphaGo aprendió con el tiempo a reconocer patrones potencialmente ventajosos, y entonces simula un limitado número de posiciones resultantes. El logro de Google ha sorprendido a otros investigadores en el tema, quienes felicitan al equipo por sus resultados.

“Desde el punto de vista técnico, este trabajo es una contribución monumental a la IA”, dice Ilya Sutskever, un investigador de IA y el director de la empresa sin fines de lucro OpenAI. Sutskever dice que el trabajo ha sido importante porque AlphaGo esencialmente se enseñó a sí misma a ganar. La misma técnica puede ser usada para lograr un desempeño altísimo en otros juegos”, indicó.

Michael Bowling, un profesor de ciencias de la computación en la Universidad de Alberta, en Canadá, quien recientemente desarrolló un programa para derrotar a quien sea en un juego limitado de póker, también estaba emocionado por el logro. Él cree que este enfoque podría ser muy útil en muchas áreas en donde el aprendizaje de las computadoras se aplique. “Mucho de lo que pensamos tradicionalmente de la inteligencia humana está construido en reconocimiento de patrones”, dijo, “y mucho de lo que podríamos pensar como aprendizaje es tener estos patrones en el pasado y ser capaz de ver cómo los conectamos con una situación actual.

“Un aspecto que debe hacerse notar es que este logro combina el aprendizaje profundo con otras técnicas”, dice Gary Marcus, un profesor de psicología de la Universidad de Nueva York y el co-fundador y CEO de Geometric Intelligence, una empresa de IA que está también combinando el aprendizaje profundo con otros métodos.

Este esfuerzo de Google parece que además, vence a Facebook, que también estaba buscando crear un programa maestro de Go.

Referencias:

Technology Review 

Participa en nuestra encuesta:
Desde la Red…
Comentarios