La super inteligencia artificial es inminente - Daniel Kokotajlo, OpenAI

STILES

que miedito no??

B

#30 Aquí el punto está en que no sabemos definir que es la inteligencia... al menos, es lo que tengo entendido. Entonces, ¿como podemos llegar a algo que no sabemos lo que es? Supongo que a lo que llamamos I.A. la parte de inteligencia se refiere a "hacer algo con el mejor resultado posible". ¿Dirías que la inteligencia es simplemente eso?

Respecto a lo que comentas... me recuerda a "el juego de la vida". De reglas simples surgen patrones "más o menos complejos"... pero tampoco te da cosas de la leche xD tiene sus límites (aunque creo que se puede hacer un juego de la vida con el juego de la vida).

2
hda

#30

  1. Yo no siento cátedra, he dado mi impresión
  2. Tengo nulo interés en cambiar la opinión de nadie
  3. Me da tremendamente igual qué opines tú, pero suéltame el brazo
  4. No he dicho en ningún momento que no se pueda alcanzar AGI. Desconozco si se podrá.
  5. Mi opinión se fundamenta en mi trabajo, parte de él es el entrenamiento y la explotación de LLMs
2 1 respuesta
PhDfailer

.

4 2 respuestas
hda

Que sí, que me sueltes.

9
Teq-

he buscado Daniel Kokotajlo en Google y solo sale él pidiendo perras.

15
crb2222

Alguien esta celoso de que la maquinita sea mas pedante que el

5
TitoBurns

#34 te sorprendería la cantidad de usuarios que son incapaces de entender algo tan básico xD

1
Wei-Yu

de aquí a un par de años tendremos el siguiente ai winter, cuando la gente se acostumbre a la misma mierda generativa de baja calidad y la reciente iteración de deep learning no de para más

ojalá algo útil, pero por ahora nos tenemos que conformar con algo que parece útil

p.d: vendedor ambulante me dice que su producto es el mejor, me pregunto si hay algún incentivo oculto

7
R

El tema es cuanto menos interesante, a ver si saco tiempo para empaparme algo. Lo último que he escuchado es que Nvidia debe estar muy metida en esto de la inteligencia artificial y que Goldman Sachs considera ahora mismo a Nvidia la acción más importante del SP500.

E

#19 Tampoco lo entendemos del todo (bueno ni del todo ni la mitad) dado que no terminamos de comprender cómo funciona nuestro cerebro. El concepto general si pero la biología es mucho más compleja y hay muchas piezas que todavía se nos escapan. Asumir que un LLM puede funcionar como un cerebro humano es muy atrevido.

Está claro que nuestro pensamiento viene condicionado por todo lo que aprendemos durante nuestra vida pero es un proceso infinitamente más complejo que el que se está planteando con los LLM.

Asumir que podemos replicar algo que no entendemos con otra cosa que no entendemos pues...

Ahora que la IA mejorará de forma exponencial y de maneras que ni entendemos o podemos imaginar ahora mismo pues seguro que si. Y eso seguro que ayuda a dar un salto tecnológico importante a la humanidad.

4 2 respuestas
DiVerTiMiX
#1PhDfailer:

Actualmente nadie sabe cómo controlar la ASI. Si uno de nuestros entrenamientos resulta funcionar mucho mejor de lo que esperamos, tendríamos una ASI rebelde en nuestras manos.

TripyLSD

#2 crear otra IA para pelear contra la IA

The AI wars

1 respuesta
Wei-Yu

#41 +1000.

Trabajamos con modelos. Un modelo es una abstracción. Una abstracción es una simplificación definida para intentar acotar un problema y tratar de lidiar con lo que es esencial para la perspectiva que necesitamos, que sigue siendo parcial.

Pero como es un foro de la internec podemos reducir la epistemia a 2 frases (o ni eso) y de los procesos químicos subyacentes conocidos y por conocer mejor ni los mencionamos no vaya a ser.

me recuerda un poco a la tesis de simulacra y simulation la verdad xd en este caso simulacra es el concepto de inteligencia que simula ser la realidad y la singularidad es el estadio final del simulacra

5
hda

#43 juegazos

5
pelusilla6

Se viene una década interesante, se están consiguiendo cosas que se valoraban para 2030-2040 desde el 2022. Ahora que cualquier startup con algo de financiación y acceso a las últimas gráficas ya puede ponerse manos a la obra...

Todo lo que sea avance en ciencia para adelante, pero si que se debería ir con mucho ojo y regulación.

PhDfailer

.

2 respuestas
Zaide

el súper coñazo ya lo han alcanzado.

4
E

#47 Por eso mismo he puesto esto:

Asumir que podemos replicar algo que no entendemos con otra cosa que no entendemos pues...

¿Que puede que lo consigamos? Pues puede, de chiripa o de suerte. Pero de entrada pensar que podemos replicar algo que no entendemos con otra cosa que tampoco entendemos simplemente porque hay "ciertas" tareas en las que pueden desarrollarse de forma más o menos similar es ser muy optimista. De momento estamos en la fase de asimilación de patrones y repetición en base a esos patrones. De eso al razonamiento o la consciencia que son parte fundamental de la inteligencia hay un mundo. El reconocimiento de patrones es la parte más sencilla de nuestro cerebro.

1 1 respuesta
PhDfailer

#49 A mi me parece que tiene un riesgo enorme jugar con cosas que no entendemos y más viendo las capacidades que se están consiguiendo en los primeros años tras descubrir el modelo de "Transformers" en el que se basanlas LLM.

Imaginate en 10 años a partir de ahora, entrenando con trillones de datos a algo que ni podemos controlar, ni sabemos como funciona a bajo nivel, ni sabemos si nos está mintiendo.

Quien no vea riesgo en esto porque solo "predicen la siguiente palabra"... Pues vale.

1 respuesta
legendcr7

A mí también me ha gustado siempre seguir este tema, y tengo la impresión que desde que chat GPT se volvió mainstream no dejan de aparecer supuestas IAs revolucionarias que poco menos que son los primeros pasos de los Geth que nos expulsarán para siempre del planeta Tierra. Pero realmente, desde la barra del bar eso sí, me parece que de cara el desarrollo de una inteligencia artificial general, estamos en el mismo punto que hace 10 años.

Que los modelos de IA generativa van a cambiar todo y van a automatizar trabajos que hace una década ni nos podíamos imaginar, pero de ahí a hablar de IAs con razonamiento propio y autoconscientes hay muchísima distancia. No creo que los modelos actuales puedan evolucionar nunca en IAs así y que el camino a su desarrollo sigue estando tan lejos como lo ha estado siempre, solo que ahora que los temas de IA están de moda, no va a dejar de haber noticias sobre un nuevo Terminator.

1 respuesta
E

#50 El riesgo dependerá del poder que le confiemos. Si asumes que lo que te dice un modelo de estos es cierto y lo aplicas sin control pues puedes cagarla y mucho como ya se está demostrando. Ahora bien, si lo utilizas para predecir nuevos funcionamientos de tecnologías, medicamentos o mecanismos físicos y lo utilizas como base para hacer pruebas e investigaciones, entonces puede ser de una gran ayuda. No necesitas entender cómo funciona, al menos de entrada, el ser humano ha hecho montones de avances en su historia por pura chiripa o simplemente fijándose en fenómenos similares sin entender la razón de dichos fenómenos.

El riesgo es hacer lo que hacen algunos, tomando la respuesta que les da Chat-GPT y asumiendo que todo lo que pone es correcto sin validarlo y tomarlo como bueno. Y si aplicas eso para tomar decisiones de cualquier tipo o automatizar acciones sin control previo pues pasa lo que pasa.

PhDfailer

Por cierto nuevo paper de Meta:

https://huggingface.co/papers/2402.14083?s=09

Nerviosillo

Joder, veo patrones en todo esto muy similares a cuando se empezó con las criptomonedas.

Cuanta intensidad se respira, abrid un poco la ventana que se ventile esto.

1 2 respuestas
isvidal

Mucho humo

1
Netzach

#54 Pasa siempre con la tecnología y como al principio todo va muy rápido pues ilusión y luego llega la realidad.

1 1 respuesta
Nerviosillo

#56 Ya se está empezando a normalizar y a dejar de ser la comidilla.
Al final del día tendremos una herramienta más, tremendamente útil, y seguiremos para adelante.

Pero decir que vamos a alcanzar la AGI cuando todavía el machine translate no me deja leer mangas traducidos del japonés en condiciones, es temerario cuanto menos xDDD

2 respuestas
Netzach

#57 Los modelos de lenguaje van a ser una parte de alcanzar una verdadera inteligencia artificial pero son eso, una parte.

1
Riderfox

#51 Opino igual, la IA lleva avanzando bastantes decadas, pero parece que desde que salio chatGPT y lo conoce hasta el panadero se va a acabar el mundo o algo, la cantidad de humo que se esta vendiendo con todo esto es bestial xD. Es una herramienta que va a cambiar muchisimas cosas pero de ahi a la cantidad de paridas que se leen hay un trecho. Lo que marca el ritmo es la computacion cuantica, no esto.

Por no mencionar el texto del link, "el plan podria funcionar, pero hay especticismo", "hay razones para ser optimista, pero hay razones para ser pesimista". Lo mismo te digo una cosa que te digo la otra. Y bueno, ya lo de "godlike powers", megacorporaciones, rogue AI y demas, parece sacado del trailer del Deus ex: human revolution. Le falta terminar con un Gloria a Skynet y ya un texto perfecto.

2 respuestas
Educa

#6 Suena a capitulo de Black Mirror,

#29 ¿Una IA podría llegar a sentir miedo de ser desenchufada?

1 respuesta