La super inteligencia artificial es inminente - Daniel Kokotajlo, OpenAI

choper

#89 El problema es que lo que has escrito arriba suena contradictorio, como poco.

Que digas que "los sentimientos son sólo reglas" para luego decir que los humanos somos únicos...

Si tu razonamiento es que los sentimientos son reglas, el caracter humano que según tú hace a cada persona única; también se puede categorizar y explicar por una serie de características genéticas, de convivencia, de ambiente en el que se ha desarrollado esa persona, etc, etc. Por lo tanto si hacemos zoomout, tampoco es que haya tantas diferencias entre personas, sólo diferentes circunstancias que se pueden determinar. No muchas más diferencias que las que pueda tener una hormiga con otra.

Entonces si hacemos comparaciones con la IA, así a vote pronto se podría decir que también pueden existir IAs diferentes entre sí, según sean de diferentes sus modelos de aprendizaje, aunque sean "IAs generalistas".

No tiene mucho sentido que digas que los sentimientos humanos son reglas, luego que cada persona es única, y para terminar que las IAs siempre serán iguales (a pesar de estar entrenadas y/o utilizar algoritmos diferentes que a su vez están basados en reglas). Todo un mondongo un tanto contradictorio y poco reflexionado en mi humilde opinión y sin acritud alguna.

1 respuesta
GaN2

#89 es curioso porque generalmente las IA acaban por desarrollar sesgos o prejuicios al cabo de un tiempo mediante el aprendizaje. Por ejemplo, en ciertos modelos cuando le preguntan por fotos de presos al final enseñan solo presos de color negro o cuando le preguntan por fotos de CEOs son solo hombres blancos mayores.

1 respuesta
bLaKnI

Pero vamos a ver, todo esto es de 1º de PNL social. El motivo de la oclusión de la mayoria de los grandes enígmas, ratifica el "pánico masivo social" a los varios estamientos generados por la mera desclasificación de sopetón.
Entonces, usted se encuentra el miedo, fasciculado en su quiosco habitual, semana tras semana, y el fin de semana, el dominical.
Y ya, cuando suelten la AGI de manera natural, la gran muchedumbre simplemente la aceptará.

No tiene mas. No es por vosotros, los aquí presentes. Es por TODOS los demás. Y es así.

1 1 respuesta
keros

#77 Y tu has filtrado 3 páginas completas para señalar solo ese punto cuando seguro solo tenías en mente encontrar esa palabra y sí que va relacionada cuando lo de Gemini es de esta misma semana. Lo dicho, mentiroso, interesado e hipócrita.
Vas sin interés.

PhDfailer

.

1 1 respuesta
bLaKnI

#95 Joder, niquelado nano. Que bien lo ha pillado el peque... xD

1
Elinombrable

#76 ¿Los sentimientos son sólo reglas? Venga por favor... de hecho es de las pocas cosas humanas que van a contracorriente de cualquier regla o razonamiento lógico.

1 respuesta
usarmy

Solo espero que la IA sea americana, de lo contrario más pronto que tarde terminará petando un barco americano en costa china, o cualquier otro gambito/atentado que esta vez si, desencadene la tercera guerra.

1 respuesta
Mrolex

Pues una bomba nuclear en el edifcio de sus servidores y listo.

allmy

Primero tendrían que entender que es la inteligencia. Luego ya si eso que desarrollen una. Pensar que ChatGPT tiene algún grado de inteligencia es desconocer lo que es la inteligencia.

2 1 respuesta
choper

#98 10/10 en ironía.

1
vasketahd

Pensar que solo existe chatgpt gemini y las tipicas es falta de inteligencia, la tecnología que nos llega va a cuenta gotas, a saberse que tienen por detrás. Lo mismo pasa con los que comparan esto con el mundo cripto. Los avances que están sucediendo son una locura, demasiado rápido y como digo, estoy seguro que tienen cosas más potentes pero no para el usuario común.

Si creeis que el mundo está preparado..... yo veo más estafas y engaños que nunca, hay una incultura tecnológica muy tocha, imaginate clonar voz a una abuela de su nieto o videos etc etc. Por no hablar de la educación, un ex profesor me dijo que estaba haciendo examenes orales y cosas así (evaluaba con trabajos)

choper

#100 Otro error es pensar o comparar la inteligencia que llegue a conseguir la IA con la inteligencia humana. Como si fuesen lo mismo digo.

Independientemente del grado y forma que llegue a conseguir una IA, ahora o de aquí a 500 años; serán 2 formas de inteligencia distintas, para empezar porque se han desarrollado de forma diferente y están compuestas de forma diferente, por muchas similitudes que pueda haber a nivel lógico.

Son y serán "inteligencias" diferentes.

pajas mentales
1 respuesta
bkrs

#87

Es que no solo eso, fue precisamente en 2019 cuando Microsoft metio por primera vez la puntilla en OpenAI.

Al final, es lo mismo, como con el Metaverso o la matraca que dieron (y parece que vuelve) con la conducción autónoma, que los camioneros se quedaban sin curro.

Humo para los inversores.

Al final seguimos a la espera de que saquen una AGI ASI PASI MAGI y la que los parió, que entienda lo que hace.

De la misma manera que Stockfish sigue sin entender porque mueve las piezas en el ajedrez, hace una simulación de millones de partidas y la sale que ese es el mejor movimiento. Pero entender, no entiende nada. Y de que DeepBlue venciese a Kasparov ya hace 30 años, y Stockfish lleva desde el 2008.

2 respuestas
Calzeta

#54 Yo pensaba que el cansinismo de los techbros había tocado techo con el Muskismo.

No puede ser más evidente el marketing xD

4
PhDfailer

.

1 respuesta
kraqen

#104 De todas maneras, no creo que que sea necesaria una autentica consciencia para los objetivos de AGI que persigue OpenAI. Al final una apariencia de autonomía suficientemente útil económicamente se puede dar sin que haya sapiencia real detrás.

Centrarse en 'que es la inteligencia' y 'los misterios del cerebro humano' como cumbre de esto es un error. En todo caso serán elementos para un debate bastante más a futuro.

1 1 respuesta
B

#107 Entonces llámalo "Simulador Arcade de I.A." y no le des nombres rimbombantes (no lo digo por ti eh xD)... Es que esto me recuerda a cosas que se dicen también de la física cuántica...

allmy

#103 sin consciencia no tiene agencia por lo que terminator es imposible.

Pero es que tampoco creo que sea si quiera una forma de inteligencia. Predice un toquen a partir de los anteriores. No es más inteligente que una calculadora. No tiene procesos de generalización por ejemplo. Inteligencia es sabiendo que si 2x100 son 200, poder generalizar eso pasa cualquier número de cualquier longitud. Las LLMs no pueden hacer eso.

bkrs

#106

Es que no lo entiende

#106PhDfailer:

Para ti no entiende = no lo entiende como un cerebro humano?

Stockfish tiene que hacer millones de simulaciones para cada movimiento, pero no entiende el porque de cada movimiento. Un ajedrecista profesional usa Stockfish para ver que movimientos salen con mayor % de victoria, PERO ES EL el que tiene que en última intancia analizar los movimientos que le dice Stockfish.

Por ejemplo, no entiende algo que se dieron cuenta hace ya tiempo de porque es importante ganar el centro, simplemente hace una simulacion de 100millones de partidas y resulta que le sale mover piezas para ganar el centro del tablero tiene alto % de victoria. Con el tiempo personas, programadores, etc, pueden añadir comentarios a movimientos básicos, pero en última instancia Stockfish no entiende nada.

#106PhDfailer:

Como puedes afirmar que no entiende el ajedrez si le da un repaso a cualquier ser humano?

Porque gana por pura ¨fuerza bruta¨. Es capaz de calcular a decenas de movimientos en el futuro, sin más. Capablanca no tenía que calcular una mierda, ENTENDÍA el juego. El ajedrez es un juego con variables definidas y información completa, y por eso un ordenador con potencia de computación siempre podrá ganar a un humano, pero no por entender el juego.

Usaís muy a la ligera las palabras como inteligencia, y lo único que vemos con ChatGPT y demás es el resultado de tener ordenadores con más potencia de búsqueda de datos, cálculo, etc.

1 respuesta
B

Lo que digo en #82 va medio en broma pero también medio en serio, no sé qué nos hace pensar que una inteligencia sobrehumana no va a tener sus propios objetivos y va a trabajar para nosotros sin pedir nada a cambio.

B
#110bkrs:

Capablanca no tenía que calcular una mierda, ENTENDÍA el juego.

Yo pienso que lo que han puesto de manifiesto los módulos es que quizás las personas creyésemos entender el juego cuando realmente estábamos equivocados en muchos aspectos.

1 respuesta
bkrs

#112

Si, con algunas lineas y aperturas y otras situaciones es cierto.

Pero hay muchismas otras que literalmente desarrollaron humanos por entender el juego, no por simular 300millones de partidas.

Al final, como suele pasar, es una herramienta más que nos hace más productivos.

Lo mismo sucede ahora, por mucha paja y humo que nos cuelen.

androide

Skynet cada vez está más cerca.

Nymphetamine

Podría decirse que ya ha empezado La Guerra FrÍA.

D10X

#91 Para nada es contradictorio, las personas se equivocan y obtienen vivencias diferentes.

Hago la asunción q una máquina no se va a equivocar. Una IA nunca tendrá una pareja tóxica, porque le pondrás las reglas no cuadrara y pasara a la siguiente. La gracia del ser humano es la falta de logica concreta en sus acciones.

El libre albedrio q le llaman, una máquina nunca podrá tener eso, al menos no como esta evolucionando la tecnología actual.

#92 Eso no son sesgos, son matematicas, tienes cientos de estadísticas en USA donde los negros cometen, en proporción, mas crimenes q los blancos, por lo q la probabilidad de encontrar un negro delincuente es mayor. Depende de como se haya entrenado. Que Gemini muestre negros no es sesgo ni azar, es haberla 'enseñado' asi.

#97 Si te quedas en una parte de lo q pongo ... Ya he dicho q son reglas , y tambien he dicho q cada persona tiene las suyas en base a vivencias abstractas y entendimiento de esas vivencias ... La maquina siempre va a entender lo mismo. Tu puedes tener un objetivo de tener hijos, enamorarte de alguien, y q esa persona no pueda tener hijos ... ¿La vas a dejar? Pues a lo mejor no, y buscáis alternativas como la adopción. Una máquina, si esta programada para buscar una pareja y tener hijos, si no puede tenerlos, obviara a esa persona porque no cumple los requisitos.

Y hablo del modelo de IA actual, en unos años a saber lo q hace, actualmente el modelo es lo es.

2 respuestas
choper
#116D10X:

El libre albedrio q le llaman, una máquina nunca podrá tener eso

No lo sabes.

Y sí, ya he explicado que lo que escribiste atrás suena bastante contradictorio. Obviamente puedes no estar de acuerdo.

Educa

#65 Perfectamente desarrollado, era una simple pregunta retórica, me imaginaba la respuesta. Un saludo.

-nazgul-

Irónicamente la primera frase de la traducción ya está mal

2
Markio

Esta mas qué claro qué la nueva era tecnocientifica estará protagonizado por IA de aquí a unos 10 - 30 años para estar como China , China ya saca bastante ventaja en cuanto a estas tecnologías ''futuristas''.