Un ordenador gana por primera vez a un experto al Go

B

https://www.newscientist.com/article/2080486-humanity-strikes-back-lee-sedol-wins-a-game-against-alphago/

#180
Bueno, es como en cualquier estudio que se usa bioestadística que no toca o que te enchufa variables dicotómicas para crear sesgo a su favor (sabiendo "el truco" o no, o sea de mala gana o por ignorancia).

Lo que más se replica en todo el mundo es que las cuestiones matemáticas (a nivel analítico) importan muy poco para el marketing si no les ayuda a vender. "No dejes que 4 funciones te estropeen el chiringuito" (frase derivada de "no dejes que la realidad te estropee una buena historia / noticia").

También lo que pasa es que gente que domine en mates hay pocas, y a casi todas les importa una mierda su mal uso en neurociencia, estudios farmacológicos y demás. Yo veo más que normal la separación en "ciencias duras" y "soft-science" que se hace en el terreno de las matemáticas y la física (hacia abajo). Puros curanderos y mercaderes de aceite de serpiente.

_Akiles_

http://www.shellypalmer.com/2016/03/alphago-vs-not-fair-fight/

Aqui hablan de que en la 2ª partida el movimiento 37 de la maquina es lo mas parecido a la intuicion, en los comentarios tambien mencionan que Lee Sedol vio movimientos por parte de AlphaGo que no habia visto jamas...

Sobre la partida que gano Lee Sedol en meneame pusieron un comentario interesante de un analisis pero no se el link original

"So how to beat AlphaGo? So how to beat AlphaGo? Play a divine move in an utterly bleak situation. That move has to

(i) Be the only move. Any other move should lose the game. So that AlphaGo does not not avoid the situation and thinks it has a high win percentage.

(ii) Be a move that is highly non-intuitive, so that is not picked up as a move by AlphaGo's policy network.

(iii) Can change the game if AlphaGo fails to see it.

(i) and (ii) will ensure Sedol gets to play the move. (iii) can drive Alpha into a `crazy bot' mode, and cause it to make consecutive mistake"

B

http://francis.naukas.com/2016/03/18/detalles-tecnicos-de-alphago/

1 respuesta
B

#183

Está muy bien explicado :P.

Cómo apunte a lo que venía diciendo, en el artículo también se resalta que no sabemos (rigurosamente) cómo funciona todo el proceso. Se sabe que da buenos resultados después de mucho iterar (prueba y error), pero al no saber lo que está realmente ocurriendo tiramos a adivinar cuantas neuronas? cuantas capas? montecarlo (procesos aleatorios), etc.

El día que se comprenda bien cómo funciona este tipo de algoritmia (para mi de premio nobel por la implicación que tendrá en la sociedad :P) se podrán dar respuesta a esas incógnitas. Hay que recordar que no cuanto más mejor (cuantas neuronas, búsquedas, capas, árboles, etc etc), e incluso puede ser peor! Si se comprende cómo funciona, lo mismo no hace falta tanto hardware detrás :D.... o lo mismo te dicen que ni aunque tengas infinitos recursos podrías hacer una IA que gane siempre a X juego.

1 respuesta
B

#184
Es que es eso. No hay que confundir la ansia, las expectativas de explicar cosas con experimentos que nosotros diseñamos (sesgo inherente humano). Sólo la gente ya canosa comprende que estos experimentos lo que hacen son generar nuevos contextos y preguntas más tochas. Intentar explicar la realidad con nuevas pruebas está bien si entendemos que es más el "lo desechado con las nuevas pruebas" que no el "os vamos a decir cómo funciona el tinglado". Más que nada porque tanto lo del Deep Learning como otras cosas no sabemos cómo rula el asunto; y si no sabemos cómo va lo que en principio nos hace comprender lo que tenemos delante de nosotros (realidad) intentar sentar cátedra es un poco de astrólogos (o nutricionistas, psicólogos / psiquiatras, médicos... gente normalmente muy cateta y con poca base).

1 respuesta
B

#185

Yepe, pero tampoco hay que exagerar lo último, tampoco es de astrólogos xD. Por ejemplo, la gravedad no se teorizó en un día, había mucho curro detrás y un día llego Newton que por supuesto no empezó de cero. Yo presupongo que con la IA pasará lo mismo, llegará algún genio(s) que nos iluminen y entonces sí que explotará realmente el asunto.

1 respuesta
NueveColas

#186 Como anécdota, todos lo teníamos en historia de la filosofía pero siempre se lo saltaban, el Impetus

1
1 mes después
B

Buena "review" del tema (falta que se lo miren entendidos / as en el tema):
https://medium.com/basic-income/deep-learning-is-going-to-teach-us-all-the-lesson-of-our-lives-jobs-are-for-machines-7c6442e37a49

1 2 respuestas
B

#188

Es el enésimo artículo sobre que la IA tomará el control de nuestras vidas, nuestros trabajos....

para mi estos artículos se parecen mucho a cómo los magufos articulan sus discursos. Empiezan con cosas que son verdad, con hechos con son verdad y una vez te tienen preparados te sueltan que la IA es el mismísimo Albert Einstein.

Llevan con esta cantinela años y años, al igual que en su día cuando imaginaban en el siglo XIX que tendríamos ciudades submarinas y colonias en otros planetas. Qué eso llegará? yo no tengo ninguna duda, ahora bien, cómo sucedió hace 100 años y sus predicciones, la realidad de cómo se hará distará bastante de aquello que imaginaban.

2 respuestas
Zerokkk

#188 #189

Sinceramente Seuron, creo que te has quedado con la posición de la IA de hace 15 años y el ML más básico y rudimentario. A día de hoy, se conoce mucho más sobre cómo funciona, existe bastante documentación sobre sus bases y sus avances, y el DeepLearning le ha pegado un skyrocketting de tres pares de cojones.

El logro de AlphaGO es una jodida animalada, y no es para nada lo único "tocho" actual. Hay ya inversores automáticos en el área de finanzas que están haciendo triscar los dientes a todos los peces gordos del área; la gente está literalmente cagada con las IAs de este campo. Luego tienes Tay de Microsoft, que ha dejado con la boca abierta a todo el mundo. Y vamos, que a día de hoy pasar el Test de Turing básico, es algo hasta trivial diría yo (otra cosa es el Test Global de Turing, que a tanto no hemos llegado que yo sepa).

Esto va por muy buen camino y para nada me parece una exageración lo que he leído en el artículo. La IA está pegando pasos agigantados y avanzando considerablemente más rápido de lo que se esperaba (se echaba otra década para que un ordenador pudiese ganar a un campeón de Go).

Todavía queda mucho curro y nadie lo niega, pero muchas de las áreas que suponían un mayor problema (como el procesamiento gramatical) están avanzando a toda ostia. El aprendizaje reforzado está ya a la orden del día y funcionando incluso más rápido que en los seres humanos.

Créeme cuando te digo, que en 5 años vamos a usar bots para casi todo, y en 10 años no creo que ni se parezca al uso actual de la tecnología.

1 3 respuestas
B

#190

Confundes experimentos y casos particulares (sí, el AlphaGO es un caso particular tuneado para su especifiquísima tarea) con resultados probados más generales.

Si a día de hoy se está terminando de entender bien cómo funcionan algoritmos "básicos" cómom el descenso del gradiente... cómo te crees que está el conocimiento sobre el resto de algoritmos "más avanzados"?

Dudo muchísimo que esté en hace quince años xD, más bien estoy en contacto con el estado del arte y sé lo que hay de primera mano, mucho humo en el sentido de que se tunean las cosas para tu caso superparticular pero no se sabe por qué funciona, sólo "que funciona".

edit

Tampoco malinterpretes mis palabras xD. No quiero decir ni mucho menos que los avances experimentales no han sido significativos o quitar mérito alguno! Luego (ahora no tengo más tiempo) os cuento los resultados de algunas discusiones que he tenido con gente de los grupos de robótica de Delft, Twente, Georgia Tech y LAAS, que son referentes mundiales.

B

#189
Las predicciones he pasado. Me ha molado la teleoperadora que mejoró y llegó a hacerlo "bien" en 6 de 10 ocasiones. A ver si veo el paper o algo.

2 respuestas
B

#192

Ahí está el tema. Cuando empezó toda esta revolución, ese tipo de resultados eran (y para mi lo siguen siendo) muy espectaculares.

Hoy en día, se siguen afinando mejor algoritmos para tareas muy específicas (cómo jugar a un juego de tablero con información completa), pero fuera de ahí? lo que sigues viendo en demos, ferias y papers es "lo mismo", una y otra vez, una y otra vez.

Dónde sí ha habido (y sigue habiendo) un avance sin ningún género de dudas es en la robótica en cuanto a sistemas electromecánicos y su control (ahí tenemos los vídeos de Boston Dynamics), y por qué? porque se ha invertido mucho en el conocimiento teórico en esta disciplina, y ahora pasados los años se están viendo los frutos.

Ahora bien, en IA lo que veo es que se invierte más en resolver ejemplos particulares y cuando vamos a un caso general, la cosa "falla". Falla no significa "segmentation fault", significa que el outcome es totalmente inesperado comparado con lo que se había predicho por diseño, ahí tenemos a Tay cómo han referenciado cómo buen ejemplo de esto xD.

Por qué "fallan"? porque no se sabe realmente cómo funcionan algoritmos cómo una red de neuronas. Sí, sabemos que todo lo que sube baja, pero tuvo que venir Newton, Einstein y otros cuantos a decirnos cómo realmente funcionaba la gravedad, y entonces todo cambió y por ejemplo los aviones no se caen o fallan.

#190

Estaba mirando ahora en la wikipedia sobre Grammar recognition y similares
https://en.wikipedia.org/wiki/Grammar_induction
https://en.wikipedia.org/wiki/Artificial_grammar_learning
https://en.wikipedia.org/wiki/Inductive_reasoning

si te fijas (no sé cómo será a día 20 de Abril del 2016), en estas entradas los revisores (o cómo se diga xD) se "quejan" de que se cita mucho ejemplo particular y paper específicos, pero no se explican los conceptos en general o hay referencias más universales. Es un ejemplo del estado del arte actual en esta materia, se cubren ejemplos y situaciones concretas (muchos espectaculadores, no lo niego :P), pero ya.

1 respuesta
NueveColas

#193 estás metiendote en los campos de la gente de ciencias sociales en realidad. Lo que sostiene todo el discurso "cientifísta" de que el mañana va a ser un mundo mejor es la teoría de la modernización. Los claroscuros usados son que sólo los mejores pueden traernos de manera efectiva todos esos avances y necesitamos que sean ellos porque si no llega el apocalipsis.

De ahí que los científicos salgan tan bien valorados en las encuestas generales pero luego se vea normal que se halla secado el CSIC.

1 1 respuesta
B

#194

La verdad es que no te falta razón xD.

1 respuesta
NueveColas

#195 El apostillado de las dos últimas líneas es de Carlos Berzosa.

1 respuesta
B

#196

jaja en serio? Menudo pájaro, tiene gracia que esas declaraciones sean suyas. Cosas de políticos al fin y al cabo :P.

1 respuesta
NueveColas

#197 A parte de las disquisiciones que podamos tener de como los políticos actuales entienden lo que es la educación superior y la influencia de esta en la sociedad, lo que yo resalto de esas palabras es que la sociedad no sabe cuál es el efecto real del proceso tecnológico en ella misma. Tiene una idea, como la de los coches voladores que tanto me repetía mi abuelo cuando tenía 16 años.

Cuando yo era un hombre joven hablaban que en el dos mil tendríamos coches voladores, y yo no entendía a que cuento mi abuelo me decía esa frase. Cuando reflexiono, me doy cuenta que mi abuelo trabajó con los desarrollistas en España y el impacto que le debió de dar que todas esas expectativas no llegara a poder verlas en vida.

Eso lleva a que luego se atribuyan los mejores resultados a cada uno de los campos de la ciencia. Acabaremos encontrando un método FTL, acabaremos creando la fusión fría, acabaremos por erradicar las enfermedades, acabaremos con la pobreza en el mundo...

Mientras tanto, el percal se está vendiendo en otra parte.

1 respuesta
B

#198

No puedo estar más de acuerdo con tu primer párrafo la verdad.

Por cierto, qué son los "desarrollistas"? xD

1 respuesta
Yandr0s

Pues yo estoy convencido del pelotazo enorme que va a pegar la IA en los proximos años.

Sobre todo porque hasta hace poco, la investigacion en IA tenia muy poca transferencia en la industria, casi todo lo descubierto tiene un gran valor academico pero poca aplicacion. Pero ahora que se esta empezando a aplicar y obteniendo enormes beneficios, el interes y la inversion va a aumentar mucho

Y añadiendo a la ecuacion el deep learning... miedo XD

En mi humilde opinion

1 respuesta
HeXaN

#200 Actualmente es un sector que está en alza, es más, está catapultado. Se van a ver cosas muy chulas y estaremos vivos para verlas.

NueveColas

#199 En general, son unas pinceladas: https://es.wikipedia.org/wiki/Desarrollismo

Ten en cuenta que latinoamérica sufrió mucho económicamente con la segunda guerra mundial porque perdió a su comprador, lo que hizo que necesitaran crear su propio mercado interno (mira el ejemplo de China de ahora).

En España se nos miraba como un país "rebelde" pero a partir de los 50 nos metieron bases militares y mucho dinero y todo ese capital lo usaron unos cuantos años después para reindustrializar el país.

https://es.wikipedia.org/wiki/Planes_de_Desarrollo_de_Espa%C3%B1a

Tienes que ponerte en la piel que en esos años se estaba desarrollando en el país la idea de los "25 años de paz", en los que la guerra fue un error de ambas partes y que España antes de la guerra era hambre y miseria por doquier, la guerra era inevitable. España estaba atrasada y había que "modernizarla". La guerra sólo se pudo dar porque no teníamos la cultura y el saber hacer europeo y americano, eramos unos paletos de pueblo, pícaros y ladrones incivilizados...

El problema para nuestros amigos externos supuso que los señores franquistas de aquel entonces después de la crisis del petróleo no querían acabar con el chanchullo y España no estaba tan mal. La cosa es que se moría Franco, algo que esos "amigo$" utilizaron para cambiar el pelaje de una nueva élite política. Y de ahí hasta nuestros días.

Como un detalle hablando de como la influencia externa ha cambiado las cosas, en los años sesenta el Almirante Carrero Blanco tenía buenos contactos con Francia, lo que puso sobre la mesa la capacidad de crear una bomba atómica española gracias al apoyo francés que había montado una buena para tener sus armas en contra de lo que quería el tío sam. Todos sabemos como acabó el hombre, con el único atentado de ETA que se puede considerar magnicidio, y luego con las decisiones del PSOE de pasar del plan nuclear cuando todavía no se había dado Chernobyl.

La idea de que la tecnología nos salvará es una herramienta política. Si podemos hablar de una sería de refuerzos positivos y negativos para el colectivo hoy en día, el tecnoptimismo cubre el positivo mientras que la meritocracia es el negativo. La ciencia es otra cosa, y esta es la razón por la que se la valora tan positivamente mientras que no se la apoya.

1 respuesta
B

#192 #190 #193

Iba a continuar el tema con algo muy parecido siguiendo el post de Tabris sobre una IA respondiendo a un teléfono, pero creo que la respuesta del colega Yinso Chen en este topic lo explica muy muy bien.

https://www.quora.com/Why-do-we-need-coders-and-programmers-Cant-computers-do-this-better

Aunque esta respuesta lo sintetiza muy bien: If a human could write the requirements unambiguously enough for a computer to follow them, then that human would be writing code!

1 respuesta
B

#203
Habrá que seguir a ese colega :D.

#202
Leyéndote muy fuerte !_!

1 respuesta
B

#204

Tengo la mañana ociosa y me he puesto a leer más sobre opiniones de otras personas que están metidas de lleno en el campo de la IA.

Lo que podría resumir es:

  • No existe aún una "teoría de la inteligencia", por lo que llamar a algo IA no es del todo correcto. Muchos de los papers y experimentos son algortimos que resuelven problemas concretos. Ahí no hay inteligencia alguna, está hecho a medida (por muy espectacular que sea el resultado).

  • La gente utiliza Deep Learning "porque funciona" (bastante bien) y requiere de poco código/esfuerzo en comparación con los resultados! es decir, es mucho más accesible, pero no saben exactamente el por qué funciona, esto es, no existe una teoría que garantice X resultados por ejemplos.

  • El mayor problema para crear una verdadera inteligencia es que esta sea consciente, esto ya trae cola porque no hay tampoco definición rigurosa para poder implementarlo en una máquina. Hablando de manera de andar por casa: Una entidad que al medir su entorno crea un modelo de él de tal manera que es capaz de responder para resolver cualquier problema inesperado (o al menos intentarlo xD). Incluso el Deep Learning y algoritmos parecidos necesitan de un "supervisor" humano que modele ese mundo y genere los problemas para él. Es decir, en esencia no está tan lejos de algoritmos pasados que eran considerados "puros trucos matemáticos", ya que un humano ha de utilizar esos trucos para escribir ese algoritmos basado en Deep Learning...... y ahí es cuando vamos al post que he pegado en #203.

1 1 respuesta
Zerokkk

#205 La cosa es cuando te das cuenta de que la mente humana no es más que un conjunto de heurísticas que han acabado ahí por necesidades evolutivas, lo cual... no difiere mucho de la definición de Machine Learning y demases! Arreglos para problemas determinados... si hacemos 400 arreglos, borramos las partes redundantes y los intentamos compactar en unos pocos menos, ¿no estaremos haciendo algo prácticamente igual?

Es lo gracioso de que precisamente no tengamos todavía una teoría de la inteligencia: que incluso sin ella, podremos imitarla con bastante precisión.

1 respuesta
B

#206

Me recuerdas mucho a mi hace diez años xD. Das saltos muy grandes tío, que yo sepa (y corrígeme si me equivoco), no se sabe tan en detalle los entresijos de nuestro cerebro.

Leyéndote parece que se sabe fácil que nuestra inteligencia/cerebro es un algortimo matemático.

2 respuestas
Zerokkk

#207 No no no, claro que no xDDD pero sí que se sabe "bastante" a día de hoy. El campo de la neurología está muy avanzado, pero está claro que todavía faltan cuatrillones de cosas por saber del funcionamiento de la mente humana. Una cosa no quita a la otra.

Si algo se sabe, es que nuestro cerebro funciona mediante pequeños "arreglos", "adaptaciones" a esas necesidades que la supervivencia nos ha impuesto. Para ello, las soluciones que utilizamos no son exactas, ¿acaso te atreverías a decir que el ser humano resuelve problemas de la mejor forma posible? Es bien conocida la separación entre lograr una IA humana, que una IA racional, porque tenemos bastantes fallas a nivel racional, generalmente.

... Y aún así, hay problemas que resolvemos miles de veces más rápido y mejor que una máquina. He ahí las heurísticas, esos arreglos, que son lo que nos define y lo que nos hace tan potentes.

Supongo que diciendo esto, se entiende un poco mejor lo que quería decir en #206. Que está claro que no es la solución formal para la creación de una General Purpose IA, o qué coño, ni tan siquiera una IA de uso específico, pero sí puede ser una interesante aproximación ingenieril , aunque no por ello menos funcional!

2 respuestas
B

#208

Hombre, yo soy el primero que dice que el Machine y el Deep learning es una herramienta cojonuda xD, eso no te lo niego ni mucho menos.

E

Que se prepare Fobos

https://www.newscientist.com/article/2076552-google-deepmind-ai-navigates-a-doom-like-3d-maze-just-by-looking/