Cuando se trata de hacer trampa en los juegos de mesa, el ajedrez podría parecer invulnerable. Es un juego de información cero, donde todo se puede ver, no como en los juegos de cartas, en los que no sabemos qué naipes tienen nuestros oponentes.  Aún así, una serie de escándalos recientes ha mostrado que en los programas de ajedrez más poderosos, que juegan un 99% mejor que todos los ajedrecistas del planeta, se puede hacer trampa, a veces indetectable.
El año pasado, la Federación Francesa de Ajedrez acusó a tres jugadores de estar coludidos para hacer trampa en la Olimpiada de Rusia 2010 con mensajes de texto codificados y un sistema de señalización. La federación gala vetó por cinco años a estos jugadores, aunque hay una apelación de los implicados.

Por supuesto que los jugadores de élite son de esa categoría porque ganan muchos juegos. Si alguien sospecha juego sucio, ¿cómo pueden los árbitros determinar que es así? Es entonces cuando sale a la luz Kenneth Regan, un profesor asociado de ciencias de la computación por la Universidad de Buffalo y maestro internacional de ajedrez, que ha trabajado sobre el problema de los tramposos por cinco años y es testigo experto en el caso francés, aunque su principal ocupación es su trabajo sobre los problemas P versus NP completos, de los cuales ya hemos hablado aquí en unocero.com.

Regan se interesó en las trampas en ajedrez durante el campeonato mundial de 2006, entre Vladimir Kramnik, de Rusia, y Veselin Topalov, de Bulgaria. El encuentro tuvo su cisma cuando el manejador de Topalov, Silvio Dainalov, acusó a Kramnik de hacer trampa consultando las jugadas cada vez que éste iba al baño (asunto que fue muy sospechoso pues Kramnik quizás visitó el sanitario unas 40 veces en cada partida).

Los organizadores cerraron el baño en cuestión y Kramnik no se presentó a jugar la siguiente partida, hasta que se volvió a abrir el baño. Eventualmente el ruso ganó el encuentro, pero la prensa hablo del ‘toiletgate’ por muchas semanas.

Dice Regan: “Pensé que el mundo del ajedrez necesitaba a alguien que tratara de investigar las acusaciones de trampas. Yo me sentí entonces calificado y responsable en este tema”. dice. Para ello, construyó una prueba matemática para ver si alguien hace trampa. El problema es que hay tantas variables que deben tomarse en cuenta, en particular los factores humanos, que el probar a ciencia cierta que hay un tramposo no parece ser contundente.

Parte del problema es que el tamaño de la muestra tiende a ser pequeña, máximo 150 a 200 movimientos por jugador para un torneo completo. Otro problema es cómo las computadoras analizan y evalúan las posiciones. Dan un incremento de centésimas de la unidad (que es el peón) que tiene el valor mínimo. “El cambio de una centésima de punto puede alterar la valoración humana contra la de la computadora”, comenta.

El potencial de este trabajo va más allá del ajedrez. Jonathan Schaeffer, un profesor de ciencias de la computación en la Universidad de Alberta e inventor de Chinook, el programa con un juego de damas perfecto, dijo que la investigación de Regan tiene un gran potencial. “Lo que él está haciendo, lo que esta gente está haciendo, es tratar de modelar cómo las personas toman decisiones”, dice Schaeffer. Esto podría ser de un inmenso valor, por ejemplo, para las ventas en línea o la personalización de tratamientos médicos.

Analizando el match de 2006, lo primero que Regan intentó fue reproducir lo que alegaba Dainalov, pero no sabía cómo. “Yo sólo era un novato en cómputo del ajedrez”, y agrega, “no tenía siquiera idea sobre las preguntas correctas que debía hacer”. Intentó hallar artículos sobre el tema pero no había nada: “es una de esas situaciones en las que es difícil creer que nadie se haya ocupado de esto”. Por lo cual decidió crear su propia solución.

Regan pensó que quien usa un programa para hacer trampa, solamente pone una variante a analizar al sistema, lo que hace que el software encuentre las jugadas más rápido. Esto es eficiente pero no siempre. Se decidió poner a los programas a analizar muchas diferentes variantes de modo tal que pudiese ver donde y cómo, los programas cambiaban de valoración. Esto, desde luego, lleva mucho más tiempo.

Lo que buscaba Regan era crear un modelo de qué tan seguido variaban las jugadas de los contrincantes con las que los programas proponían, así que empezó a construír una base de datos de partidas, empezando con los juegos del siglo XIX. En cada juego le pedía a la computadora que evaluara cada posición en modo de una sola variante hasta una profundidad de 13 plys, es decir, entre 6 y 7 jugadas (donde cada jugada son dos movimientos, uno de blancas y otro de negras). A la fecha, ha analizado cerca de 200 mil partidas, incluyendo los 50 torneos más importantes en la historia. También analizó de 6 mil a 7 mil partidas en modo de múltiples variantes para crear un modelo de las diferentes habilidades de los jugadores.

Para probar que alguien hacía trampa, comparaba la fuerza del jugador (valorada por un número llamado rating Elo) contra su modelo. La investigación llevó a algunas conclusiones interesantes, particularmente sobre Rybka, el producto comercial más fuerte en el mercado. “En situaciones en donde la posición es particularmente desfavorable, el programa puede trabarse en la búsqueda de alguna solución”, dice Regan.

También descubrió que la forma en que la gente juega ha evolucionado. Un jugador ranqueado en el lugar 40 del mundo lo hace tan bien como Anatoly Karpov lo hacía en los años 70, cuando era campeón del mundo y se le describía como una máquina de jugar ajedrez.

Regan dice que su modelo aún está en una etapa en la que sólo puede ser usado como apoyo para los casos en los que se dice que hay trampa. En el caaso francés, él concluye que dos de los desempeños de uno de los ajedrecistas acusados, Sebastián Feller, tienen una correlación inusualmente alta con lo que los programas de ajedrez dicen. Es decir, parece que Feller hizo trampa.

Los modelos pueden ser usados también para limpiar el nombre de algún jugador. Por ejemplo, el año pasado, en el abierto de Canadá, alguien, cuyo rating era de 2100 (candidato a maestro), venció a tres maestros internacionales, cuyos ratings eran 300 puntos por encima del nivel del ganador. Después de analizar los juegos, Regan dijo: “fui capaz de probar que ese jugador tenía un rating intrínseco de 2100 puntos, y que los maestros internacionales simplemente jugaron muy mal”.

Fuente: NY Times