#192
Ahí está el tema. Cuando empezó toda esta revolución, ese tipo de resultados eran (y para mi lo siguen siendo) muy espectaculares.
Hoy en día, se siguen afinando mejor algoritmos para tareas muy específicas (cómo jugar a un juego de tablero con información completa), pero fuera de ahí? lo que sigues viendo en demos, ferias y papers es "lo mismo", una y otra vez, una y otra vez.
Dónde sí ha habido (y sigue habiendo) un avance sin ningún género de dudas es en la robótica en cuanto a sistemas electromecánicos y su control (ahí tenemos los vídeos de Boston Dynamics), y por qué? porque se ha invertido mucho en el conocimiento teórico en esta disciplina, y ahora pasados los años se están viendo los frutos.
Ahora bien, en IA lo que veo es que se invierte más en resolver ejemplos particulares y cuando vamos a un caso general, la cosa "falla". Falla no significa "segmentation fault", significa que el outcome es totalmente inesperado comparado con lo que se había predicho por diseño, ahí tenemos a Tay cómo han referenciado cómo buen ejemplo de esto xD.
Por qué "fallan"? porque no se sabe realmente cómo funcionan algoritmos cómo una red de neuronas. Sí, sabemos que todo lo que sube baja, pero tuvo que venir Newton, Einstein y otros cuantos a decirnos cómo realmente funcionaba la gravedad, y entonces todo cambió y por ejemplo los aviones no se caen o fallan.
#190
Estaba mirando ahora en la wikipedia sobre Grammar recognition y similares
https://en.wikipedia.org/wiki/Grammar_induction
https://en.wikipedia.org/wiki/Artificial_grammar_learning
https://en.wikipedia.org/wiki/Inductive_reasoning
si te fijas (no sé cómo será a día 20 de Abril del 2016), en estas entradas los revisores (o cómo se diga xD) se "quejan" de que se cita mucho ejemplo particular y paper específicos, pero no se explican los conceptos en general o hay referencias más universales. Es un ejemplo del estado del arte actual en esta materia, se cubren ejemplos y situaciones concretas (muchos espectaculadores, no lo niego ), pero ya.