¿Es viable una IA científica? Tema serio

SilverFNX

La pregunta va dirigida a personas con conocimientos reales sobre IA.

Me refiero a si es posible desarrollar un modelo de IA entrenado en varios campos que se automejore recursivamente, trazando sus propias estrategias de automejora y reprogramándose. Obviamente en esa reprogramación el propio modelo se podría romper, también puede desarrollar como ciertas conclusiones erróneas y no ser capaz de volver atrás en su proceso deductivo para llegar a la conclusión correcta.

¿Qué haría falta para lograr algo así a nivel de recursos?

Robe_del_Mal

La respuesta, está más que clara.

1 1 respuesta
Rfael79

una IA que piense como un cientifico/a .. me parece que queda muy lejos de nosotros todavia , de tener eso una IA que descubra ecuaciones nuevas o teorias nuevas cientificas a partir del material que encuentre en internet

1
nerkaid

#2 Mira lo que me pasó el otro día con el ChatGPT:

10 7 respuestas
bLaKnI

#4 Pero es que estaba CANTADO.

tute07011988

#4 Con la última respuesta tengo claro que me voy al monte, señores.

1 respuesta
richmonde

#6 Tu te encargas de los animales, yo del huerto. Pero sin internet ni mierdas, menudo futuro nos espera con las IA's xD

PD: Recuerdo el "ChatGPT nos va a quitar el trabajo".

1
Robe_del_Mal

#4 Estamos ante un Asimov de manual.

Al-Khelaifi

#4 Vaya chapa dan las IAs no?

1
Nyulocka

#1 Pues seguro que ya existe. xD

1 1 respuesta
YokeseS

#4 Como para fiarte de algo asi xD

SilverFNX

#10 Pensándolo bien es probable.

Eso sí, de existir es un proyecto gubernamental secreto.

Drhaegar

#4 Sólo le ha faltado dibujar una trollface en ASCII.

KIIM

#4 Eso es real? Le acabo de preguntar y me ha dado el 42, pero en este caso me dice que ha sido totalmente aleatorio. Casualidad?

2 respuestas
SilverFNX

#14 Es cierto que ante una petición de número aleatorio, en realidad siempre se genera un número pseudoaleatorio, lo del 42 también es verdad, es de un libro titulado La Guía del Autoestopista Intergaláctico.

En el libro, el número 42 es presentado como "la respuesta a la pregunta fundamental sobre la vida, el universo y todo lo demás". Esta respuesta es proporcionada por un superordenador llamado "Pensamiento Profundo" después de 7.5 millones de años de cálculos. Sin embargo, la ironía radica en que nadie conoce cuál es realmente la pregunta que corresponde a esta respuesta.

nerkaid

#14 El pantallazo está sacado de mi cuenta. Pregúntale que qué cálculos ha hecho para llegar al 42, a ver qué te dice.

2 respuestas
Kirbos

#16 A mi me acaba de sacar el 5. Me da miedo preguntarle y que me diga "por el culo te la hinco"

Edit: No, me ha puesto el código con el que supuestamente me lo ha generado. Luego le he pedido otro y me ha dado el 67.

2
KIIM

#16 me quieres decir que de forma totalmente aleatoria me ha dado el puto 42?

tute07011988

Vacilando a toda una comunidad.

2
Robe_del_Mal

Ahora mismo, Douglas Adams está con Terry Pratchett observándonos y partiéndose la caja mientras se beben una Strongbow.

1
Kike_Knoxvil
#1SilverFNX:

que se automejore recursivamente

Acabas de pedir el santo grial lleno hasta arriba de piedras filosofales del mundo de la tecnología

Imposible no es, pero está muy fuera de lo que podemos conseguir hoy día

1 1 respuesta
SilverFNX

#21 Opino que el santo grial ha sido lograr un modelo de lenguaje capaz de inferir significado a través del texto, comprenderlo y ser capaz de traducirlo en ideas concretas. A partir de ahí, esas ideas pueden ser objetivos, instrucciones, estrategias...

Desde el momento en que ChatGPT puede interactuar con un humano y en equipo con él llevar a cabo un proyecto, solo hace falta que se escinda en 2 el modelo y se logre una interacción adversarial donde el propio modelo pueda tener diálogos internos en busca de la resolución de objetivos mayores. Esto de momento puede ser muy costoso en términos de recursos, pero es una realidad, también es una realidad que el know how está en manos de empresas privadas.

4 respuestas
Kike_Knoxvil

#22 Ningún modelo de IA actual tiene la capacidad de comprender, al menos no como lo hace un humano

1 respuesta
SilverFNX

#23 Sí que infieren semánticamente de un contexto, otra cosa es que tengan solo un prompt como contexto y no tengan la capacidad de iterar más allá de la interacción con el usuario. El modelo de la IA recrea matemáticamente a menor escala cómo funciona tu mente, porque tu mente también es un modelo entrenado.

allmy

No, hace falta pensamiento abstracto y conceptual. Ni si quiera sabemos como parametrizar conceptos.

eondev

#22 ni infiere significado ni lo comprende.

Otra cosa es que de la apariencia de que comprenda lo que le has dicho.

Te pongo un ejemplo: 3 individuos se meten en una habitación. El primero coge un texto en chino por debajo de la puerta. El segundo con una tabla traduce el texto según las equivalencias de símbolos y el tercero devuelve debajo de la puerta el texto traducido. Con el paso del tiempo las 3 personas mejoran hasta tardar unos pocos ms en completar su tarea y hacerla casi perfecta.

Para una persona de fuera esa habitación le servirá para traducir desde el chino, pero nunca podría decir que esa habitación sabe chino.

Nirfel

#22

donde el propio modelo pueda tener diálogos internos en busca de la resolución de objetivos mayores.

Puedes hacer la prueba y usar dos ventanas de ChatGPT y copiar y pegar las respuestas de uno en el otro.

Te vas a dar cuenta de que no llegas a nada.

richmonde

#22 No, no se puede.

Si una GPT es incapaz de diferenciar si está hablando con un humano u otra GPT, queda harto lejos que entre dos GPT's saquen algo ya no correcto, sino que no se bloquee a la primera de cambio.


Los LLM y las GPT se basan en probabilidades y conceptos entrenados. El concepto "generativo" es en base a probabilidades que tras XYZ carácteres/palabras/etc dado un contexto y un input, la salida sea correcta o no. Una GPT por defecto, toma la salida que da como certera salvo que el siguiente input confirme dicha validez/veracidad.

Las IA's, LLM, NN, GANs están a décadas de ser realmente generativas Y conscientes, para crear sin probabilidades. Creación "pura", de la nada, crear algo que carezca de probabilidad de salida.

Con esto en mente, es fácil rebatirte que dos modelos interactuen conjuntamente para crear, porque lo que estás haciendo es una conversación de parámetros estadísticos, y no la creación de algo nuevo desde muchas cosas viejas donde no haya referente del que "entrenarse".

PaCoX

3 respuestas
richmonde

#29 Es muy duro esto eh.

Pensar que hay gente que piensa que su trabajo se va a ir a la mierda por un GPT, y ver que tienes miedo por algo que afirma esas 3 palabras xD