miércoles, 30 de marzo de 2016

Duelo de intelectos (o el día que la inteligencia humana perdió)


Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de marzo de 2016

Lee Se-dol, gran maestro y campeón sudcoreano del antiguo juego chino de go, sintió que una gota de sudor escurría por su frente. A pesar de poseer el noveno dan –máximo grado del juego –salvo el décimo dan, que sólo se otorga a título honorario–, a pesar de sus 18 títulos internacionales y de tener el segundo lugar a nivel mundial, estaba perdiendo.

Por cuarta vez consecutiva.

Pero eso no era lo peor, sino saber que su oponente en el torneo de cinco juegos era una computadora. O más bien, un complejísimo programa, una inteligencia artificial llamada AlphaGo, desarrollada por la compañía londinense DeepMind, adquirida hace dos años por el gigante de la computación Google.

El go, que existe desde hace más de 2 mil 500 años, y que hoy es jugado por más de 40 millones de personas en el mundo, principalmente en Asia, es considerado el juego de mesa más complejo que existe. Consiste en ir poniendo pequeñas piezas ovoides negras y blancas llamadas “piedras” en las intersecciones de las líneas del tablero, de donde no se pueden mover, y siguiendo ciertas reglas rodear con ellas las piezas del oponente (de hecho, el nombre del juego se traduce como “juego de rodear”). Gana el jugador que al final del juego ha logrado rodear más área en el tablero.

El go es mucho más complejo, por ejemplo, que el ajedrez, en cuyo tablero de 8 por 8 casillas existen alrededor de 10 a la potencia de 123 jugadas (un 1 seguido de 123 ceros). El go, en cambio, se juega en un tablero de 19 por 19 líneas cruzadas, y es posible hacer 10 a la 360 jugadas (si 10 a la 2 es cien, y 10 a la 3 es mil, diez veces más, la diferencia entre 10 a la 123 y 10 a la 360 es de 133 órdenes de magnitud: algo inimaginable).

Hace casi 20 años, en mayo de 1997, la computadora Deep Blue, desarrollada por IBM, saltó a la fama al vencer al gran maestro de ajedrez Gari Kasparov. La inteligencia artificial había derrotado al humano en un juego considerado de inteligencia pura. Sin embargo, lo logró mediante un método de “fuerza bruta”: Deep Blue tenía programadas en su memoria una cantidad enorme de partidas de ajedrez, y era capaz de revisarlas para computar por adelantado el “árbol” de posibles decisiones para cada movimiento, así como sus posibles consecuencias, previendo 20 o más jugadas por adelantado (un gran maestro puede calcular como máximo 10 o quizá 15).

El go, en cambio, es astronómicamente más complejo. Tan sólo en la primera jugada es posible escoger entre 361 posiciones. En las primeras 5, la cifra se eleva a 5 billones (cinco millones de millones). El número total de movidas posibles va más allá de lo que cualquier cantidad de memoria puede almacenar. Por eso, los diseñadores de AlphaGo tuvieron que recurrir a una estrategia distinta: imitar la manera en que funciona un cerebro humano. Para ello, usaron una arquitectura de “redes neuronales profundas”.

Una red neuronal es una simulación en computadora de unidades equivalentes a neuronas humanas conectadas entre sí, que pueden recibir señales de otras neuronas (entrada). Estas señales pueden estimularlas o inhibirlas. Si una neurona recibe suficiente estímulo, emite a su vez una señal a otras neuronas. Conforme una red neuronal se “entrena” por prueba y error para que “aprenda”, la sensibilidad de cada conexión neuronal se va ajustando. Muchos programas “inteligentes” que disfrutamos actualmente consisten en redes neuronales capaces de aprender de esta manera.

Pero la red de AlphaGo, según la describen los 20 investigadores de DeepMind, liderados por Demis Hassabis, en un artículo publicado en enero pasado en la revista científica Nature, es “profunda”: consta de 13 capas de redes neuronales, cada una de las cuales procesa los resultados de las que están más abajo. La más sencilla representa el tablero mismo y las posiciones de las fichas en él. La de más alto nivel representa las posibles jugadas en la partida y la probabilidad que cada una sea óptima (es decir, toma la decisión respecto a la siguiente jugada).

AlphaGo fue alimentada inicialmente con una base de datos de 30 millones de jugadas en partidos realizadas por expertos, para que las incorporara en las conexiones de sus redes neuronales. Luego, fue entrenada poniéndola a jugar incesantemente, millones y millones de veces, contra sí misma: la práctica hace al maestro.

El torneo contra Lee Se-dol, jugado en Seúl del 9 al 15 de marzo de este año, era la prueba de fuego para AlphaGo (que ya en octubre de 2015 había derrotado cinco juegos a cero al campeón europeo Fan Hui). Se-dol se mostraba confiado y declaró estar seguro de vencer a la computadora al menos en 4 de los 5 juegos. Cuando fue vencido en los primeros tres, la sorpresa y la tensión eran increíbles.

Se-dol se limpió el sudor. Llevaban cinco horas jugando. Apretó los puños y, con un esfuerzo máximo de concentración –una de las ventajas de la computadora era su concentración absoluta y su inmunidad al estrés psicológico, comentaría luego–, hizo una jugada totalmente inesperada, incluso para él. Logró así vencer a AlphaGo en esa cuarta partida.

El triunfo sólo sirvió para salvar su honor, pues el quinto encuentro, y el torneo, fueron ganados por su oponente. Igual que el millón de dólares del premio, que será repartido a UNICEF y otras beneficencias.

Al final, Se-dol afirmó –entre las muchas frases que se le atribuyen–, que “nunca deseaba volver a jugar un juego así” y que AlphaGo era “distinto a cualquier oponente humano que hubiera enfrentado antes; su estilo es muy diferente”. Pero también dijo que “no podría haber disfrutado más” con el torneo, y que “jugar contra AlphaGo me hizo darme cuenta de que necesito estudiar más el go”.

Como premio, AlphaGo recibió el noveno dan, el mismo que su rival. Y la humanidad entró, diez años antes de lo que esperaban los expertos (aunque había quien aseguraba que una computadora jamás vencería a un maestro de go) a una era en que la expresión “inteligencia artificial” ya no es sólo una metáfora.

Sin embargo, no todo está perdido. Como afirma el experto francés en inteligencia artificial Bruno Bouzy en una entrevista para la revista Science, los humanos somos todavía incomparablemente superiores a las computadoras cuando se trata de jugar videojuegos. Aún no llega el momento de temer al Terminator.

¿Te gustó?
Compártelo en Twitter:
Compártelo en Facebook:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

4 comentarios:

Hek@nibru dijo...

Me llama la atención el tono, un tanto sombrío, que utilizaste; en mi opinión, la derrota de Lee Sedol es una gran victoria para la humanidad.

Wm Gille Moire dijo...

Una gran victoria para la humanidad... y una gran victoria propagandística para el fisicalismo, el new atheism y la neurocienciocracia. Nos van a quitar el alma. Y nos consolarán diciendo "No se preocupen, somos buenos, muy buenos, buenísimos, y tan buenos somos, que seguimos creyendo en los derechos humanos aunque sabemos perfectamente bien que son de mentiritas".

Wm Gille Moire dijo...

No tengo nada contra la ciencia o la neurociencia. Pero sí contra el fisicalismo: nos hace perder la fe en Dios, nos hace dudar del alma, nos quita toda esperanza, nos lleva lógica y psicológicamente al nihilismo. Ésos que celebran que "cada día hay más ateos" no ven más allá de sus narices.

Wm Gille Moire dijo...

Parece que el Terminator (la IA) ya asomó su fea cara en el ajedrez profesional. Ya hay varios maestros sospechosos de hacer trampa. Aquí un caso: http://abcblogs.abc.es/poker-ajedrez/public/post/psicosis-por-el-uso-de-moviles-en-los-torneos-de-ajedrez-7920.asp/

Y ya hay voces en la Fide (fed de ajedrez) que proponen escanear y hasta encuerar a los maestros al final de cada partida (claro, en el WC).