Yo cuando leo que lo subjetivo se puede aproximar con lo aleatorio se me queda una cara de "po vale" impresionante.
Si las AI del futuro van a funcionar "engañando" en este aspecto a un observador, de forma que este confunda sus procesos internos con algo genuinamente humano, podemos dejarnos de ML y pollas y, para lo subjetivo, cebar una base de datos muy amplia. Que para lo más común ya vale.
En este sentido, básicamente #240. Las veremos mucho antes de entender cómo funcionamos nosotros, porque para engañar en lo cotidiano tampoco hace falta mucho más.
Que #238 me corrija pero, no sé, pienso que la gracia de aplicar la teoría de la AI en esta cuestión es precisamente emular unas funciones humanas de forma que aunque el sustrato estructural sea diferente, sepamos de ante mano que el comportamiento será idéntico dentro de un rango, como todo lo biológico.
Antes he señalado que la neocorteza es prácticamente única. Las implicaciones de esto a la hora de formarse conceptos humanos como amor, inteligencia o imaginación son bastante importantes como para tenerlas en cuenta a la hora de una futura AI GP.
Si precisamente es ahora cuando la psicología trata de conseguir unos modelos que valgan para algo más que satisfacer las necesidades del lenguaje -como lo han sido durante milenios los conceptos de amor, sentimientos o creatividad- ¿con qué va a compararse una AI GP? ¿Lo decide un humano?
O dicho de otra manera, cómo compruebas que tu emulación da el resultado deseado si ni siquiera tienes un modelo medianamente fuerte de muchas de nuestras características.