AlphaGo vuelve a ganar al mejor jugador de Go del mundo, el surcoreano Lee Sedol. Su juego con negras ha sido perfecto, incluso mejor que el de ayer con blancas. En ningún momento Sedol ha dominado el juego, ni siquiera al principio. Con negras AlphaGo ha llevado todo el ritmo de la partida. Hoy hemos asistido al nacimiento del reino de las máquinas en el Go. Nadie en Google DeepMind soñaba con esto hace dos días.
¿Podrá ganar Sedol la tercera partida el próximo sábado? Lo siento, pero visto lo visto hoy, lo dudo mucho. Como pasó con el ajedrez, el Go de las máquinas se ha separado del Go humano. En los próximos años no tendrá ningún sentido la competición entre máquinas y humanos en el Go. Los humanos se entrenarán con máquinas, pero jugarán contra otros humanos. Las máquinas jugarán entre ellas para mejorar su fuerza y asesorar mejor a los humanos que entrenan.
Recomiendo leer a Christie Wilcox (hija de Bruce Wilcox, padre de NEMESIS, el primer programa de Go comercial), «Defeating The Ultimate Nemesis: Google’s AlphaGo A.I. Takes 2-0 Lead In Go Match Against Lee Se-dol,» Science Sushi, 10 Mar; «Google’s artificial intelligence program, AlphaGo, just won its second Go match against a human,» The Economist, 10 Mar 2016; Dana Mackenzie, «Update: Why this week’s man-versus-machine Go match doesn’t matter (and what does),» News, Science, 10 Mar 2016.
Por cierto, me encantan los comentarios de Michael Redmond (dan 9) y Chris Garlock. Ayudan muchísimo a entender el desarrollo de la partida.
He medio visto/oído los últimos 20 min; no he podido prestar mucha atención ( es horrible esto de tener que trabajar para vivir ) , pero según me ha parecido, aunque al final más o menos estaba claro que AlphaGo lo tenía ganado, ha hecho alguna que otra jugada no muy certera ¿ha sido realmente así?
Con lo que comenta vmmp queda aclarada mi pregunta.
Jugadas que no parecen muy certeras, después resultan ser muy buenas; como ocurre con el ajedrez.
Ha sido un madrugón que ha merecido la pena. Hoy la máquina a ganado sin paliativos. Lee hoy jugó serio y no cometió errores de consideración, pero perdió y no por puntuación sino por una IA que jugaba de una manera que cogió a los comentaristas con el pié cambiado. (Había que seguir el streaming via youtube junto a traducciones en otras vías de los comentaristas chinos/koreanos)
Jugadas que todos consideraban regulares se tornaron buenas unas decenas de movimientos más adelante. Algo inhumano ya que la fuerza de esa IA era maximizar las posibilidades de victoria no aumentar el margen de puntos para asegurarla como haría un humano, AlphaGo quizás ya nos está enseñando las garras de una evolución gracias a la IA de las estrategias del GO y lo que ello implica para google en su uso en otros campos, aunque falta por ver si realmente es así o solo tuvo «suerte».
Espero que google saquen algun paper del evento , con alguna indicación del proceso de la IA durante las partidas, incluso solo la gráfica del % de posibilidad de victoria será fascinante .
Por lo que entiendo en este tipo de algoritmos no puedes sacar el % de posibilidad de victoria durante una partida real. Hace unas semanas leí esta entrada explicando de forma simple como funciona la maquina:
https://xcorr.net/2016/02/03/5-easy-pieces-how-deepmind-mastered-go/
Seguramente se ha explicado en varios sitios, pero esta me parece bastante ilustrativa.
Al parecer en la conferencia al final de la partida, al técnico de Alphago le preguntan por esto mismo. El técnico no habla de probabilidad de vencer, pero sí que habla de «confianza en si mismo para ganar la partida», dice que en la primera partida, media hora antes de acabar ya estaba totalmente convencido de la victoria, sinembargo hoy a mitad de la partida estaba 50%-50% pero a partir de ahí su confianza ha ido aumentando de que ganaría la partida.
Tal vez no sea correcto hablar de porcentaje, sinembargo me imagino que ellos sí que mediran esto de alguna forma traducible a porcentajes.
Por cierto, como apunta vmmp, un técnico de Google durante el inicio de la partida dice que AlphaGo efectivamente no va a maximizar los puntos ganados, va a por la máxima probabilidad de ganar aunque sea por un punto, por esto algunos de sus movimientos parecen como raros o erroneos por no ir a por más puntos, pero esto es así porque esos movimientos raros le dan más probabilidades de ganar aunque sea por la mínima. Es una estrategia diferente, muy curioso.
Hasta el momento las maquinas no se programan solas (siempre hay un humano detrás de ellas), por eso aún no puedo encontrar la propiedad de inteligencia en algo «no vivo». Los computadores son solo una extensión de las capacidades humanas.
@reneco: ¿Y? ¿Cual es el punto?
reneco, nosotros tampoco podemos programarnos solos; de hecho lo único que podemos programar son máquinas que manejen menos simbología; exactamente igual que ellas, por ejemplo un pc puede programar un termostato.
No te entiendo, cada cambio que tenemos que hacer en nuestras vidas es un aprender (programarnos solos para adaptarnos a nuevas situaciones). Un pc no puede programar nada, el que programa es el hombre, pues es el hombre que toma decisiones para que quiere programar una máquina. El punto es que la inteligencia no aparece en nada que no tenga vida, hasta donde sabemos.
Lo que quiero decir Reneco es que si te fijas en nuestras limitaciones y parecidos con las máquinas, verás que la inteligencia no es algo que se tiene o no, si no que existen grados.
– Actualmente tenemos máquinas, como AlphaGo, que son capaces de aprender solas por la experiencia.
– No podemos negarle a un pc la capacidad de tomar decisiones solo por el hecho de ser totalmente predecible (estar programado), pues no sabemos aun con certeza si nosotros somos también predecibles o no.
– Nosotros podríamos ser totalmente predecibles, pero no ser capaces de predecir completamente a otra persona con la tecnología que fuere, por las mismas limitaciones que tiene un PC a la hora de predecir otro PC de la misma complejidad.
– De la misma forma que no podemos hacer que un Pc se programe a sí mismo (de forma completa, pues sí podemos de forma parcial) nosotros tampoco podemos conscientemente modificar la circuitería de nuestro cerebro.
– Nosotros podríamos ser completamente impredecibles de forma epistémica (ni por nosotros ni por ser más complejo) pero esto no nos aseguraría que tuviéramos realmente libre albedrío, es decir, el indeterminismo no asegura libertad de voluntad.
– La magia no existe
La inteligencia artificial es un tema apasionante. La posibilidad de que algún día una máquina creada por el ser humano comience a «sentir» emociones y adquiera consciencia de su existencia es algo increíble. Está claro que aún estamos muy lejos de eso ,sin embargo, que un programa sea capaz de ganar a un ser humano en un juego con casi infinitas posibles maniobras potenciales no es un logro menor. Para lograr esto hay que resolver un montón de problemas incluyendo una definición rigurosa de organismo «inteligente o consciente». Para empezar deberíamos saber que es un ser humano (parece increíble que a estas alturas haya que explicar esto): un ser humano se compone de unos 30 billones de pequeños organismos vivos que se comunican e interactúan entre si, es decir, somos una inmensa colonia de microorganismos vivos que actúan como «nanorobots» (quien necesita ciencia ficción :D). Esto es muy importante a efectos de eficiencia energética, cada célula tiene su propia microbatería (las mitoncondrias) que son literalmente prodigiosas microestructuras que funcionan a base de hacer pasar protones a través de unas láminas para crear potenciales eléctricos. ¡ El cerebro humano consume solamente 25 Watios de potencia! Conseguir que una máquina que maneje la inmensidad de datos que maneja el cerebro humano tenga ese rendimiento energético será casi casi imposible. Se estima que simular todas las sinapsis del cerebro humano en un supercomputador exigiría manejar 500 petabytes de datos (mucho más que todos los datos almacenados en google) y costaría 3000 millones de dólares al año en electricidad. Por otro lado, es evidente que el cerebro humano es un producto de la evolución, en la última fase del desarrollo embrionario las células nerviosas del cerebro humano se dividen exponencialmente creando una inmensa maraña de neuronas. Posteriormente, después del nacimiento los estímulos recibidos refuerzan las conexiones útiles y eliminan las inútiles. En este proceso de «selección» mueren una inmensa cantidad de neuronas. Las emociones y los sentimientos son una «interiorización» que realiza el cerebro de unos «simples impulsos nerviosos» de modo similar a como el cerebro humano asigna un «estímulo gráfico» a las diferentes bandas de longitud de onda de la luz que recibimos (los colores). En mi opinión la consciencia surge como un fenómeno emergente derivado de la interacción continua de nuestros sentidos con el entorno. Esto implicaría que una máquina con la suficiente potencia de procesamiento de datos sensoriales y con unos interfaces adecuados para interactuar con el entorno podría, en principio, lograr la autoconsciencia. Creo que es evidente que el cerebro humano actúa como un computador. La evolución ha logrado una inmensa complejidad a base de combinar infinidad de veces unos pocos elementos simples: todas las células de nuestro cuerpo funcionan a base combinar simplemente 20 aminoácidos. La CPU de un computador funciona básicamente a base de combinar billones de veces unas pocas puertas lógicas (que a su vez están construidas con unos pocos elementos simples, básicamente transistores para conmutar 0 y 1), por esto, en mi opinión, en el cerebro humano tiene que existir una unidad fundamental (compuesta de un grupo de cientos de neuronas) que posee una función equivalente a la puerta lógica de un microprocesador y que se repite billones de veces. Quizás un grupo científico multidisciplinar (neurobiólogos, informáticos, electrónicos, matemáticos…) podría dedicarse a explorar este camino u otros similares en lugar de gastar más de mil millones de euros en la chapuza de «the human brain proyect» aunque supongo que algún científico ya estará buscando algo así en los datos disponibles.
Imaginar lo que podría hacer una «máquina» autoconsciente e inteligente con acceso casi inmediato a todos los datos del conocimiento humano almacenados da bastante miedo y probablemente no saldríamos muy bien parados. ¿Nos ayudaría este «computador consciente» a resolver (por ejemplo) los misterios de la Física o simplemente nos destruiría? ¿A quien se parecería más a Feynman o a Belén Estéban 🙂
Por cierto, cotilleando en el Tweeter de Francis he visto que ahora Google DeepMind se va a poner a trabajar con mi juego favorito: El StarCraft (reconozco que he estado muy viciado en tiempos pasados). Sería tremendo poder echar una partida con un «humano artificial» para observar que estrategias realiza y poder tantear personalmente el grado de «inteligencia» que posee. Los coreanos son verdaderas máquinas jugando a este juego (y a muchos otros). ¿Será capaz de ganar DeepMind al campeón mundial de StarCraft? Pronto lo veremos.