Chico de 14 años se enamora de IA de Juego de Tronos y se suicida. EEUU.

Misigno

A estos casos se les llama "selección natural".

Clive

Su familia se plantea demandar a la aplicación

Yo demandaría a los padres, fíjate tú.

Lysis

Que se hagan cargo los tutores del pibe. No se puede prohibir algo porque uno lo usa de x manera. Sino prohibimos los cuchillos por si alguno apuñala a otro, o prohibir los automóviles por si alguno atropella a alguien.
O mejor aún, prohibimos a los que opinan diferente a mí por si me llegó a sentir ofendido

1 respuesta
Clive

#93 Dos ejemplos que siempre he puesto yo (y aún así hay mucha gente que sigue sin comprenderlo).

Añadiré otra: hay que prohibir las relaciones sentimentales, dado que existe el maltrato dentro de la pareja. Si prohibimos las parejas, eliminamos el maltrato dentro de la pareja :smirk:

Shephiroth

ojala se ponga de moda

Abhorash

Veremos cuanto tarda en saltar por la ventana algún mediavidero por un bot de Ayuso.

josepginer

squa1o

Cómo me imaginaba la IA acabando con la humanidad:

La IA real acabando con la humanidad:

4
Retourned

Honestamente si no moría así moría de cualquier otra cosa en los siguientes años, donde no hay luces no se puede sacar mucho.

1 respuesta
Urien

#99 Pero que tenía 14 años, tontolculo.

2 1 respuesta
Retourned

#100 Que no son 7 precisamente, gracias por decirlo rey

Akiramaster

Los padres no pueden aceptar su responsabilidad porque eran incapaces de solucionar el problema.

También digo otra cosa: esto no es culpa de la IA, sino de meter un personaje de juego de tronos en tu vida..., no va a salir bien nunca.

HimaK

Al menos se libro de vivir el capitalismo

Trastamara

#4 Yo creo que va más por el rollo ias y adolescentes y niños. Si el uso de estas aplicaciones puede causar estragos en mentes sin desarrollar o con problemas sociales.

Y lo de la pistola no me jodas, con 14 años uno de sobra sabe que si alguien tiene un arma ,que supervisión vas a tener?

Con 14 años la gente iba a la guerra, por mucho que tengas el arma con supervisión y bajo llave con esa edad si quieres aunque te le vayas a cargar luego con tu padre, revientas, abres o sacas donde la tenga o la buscas que más da si te vas a matar.

Supervisión en un niño de 14 años, vamos no me jodas a esa edad ya estás para echar polvos ,para ir a la guerra o para arar en un campo hombre.

1 respuesta
margariskid

#104 ah, pero para diferenciar entra una IA y algo físico y real no?

1 respuesta
NigthWolf

El problema no era la IA, era el entorno y los padres. La IA le dio esa comprension y aceptacion que en casa no tenia. Es posible que se hubiese suicidado o hubiese pasado algo peor mucho antes si no se hubiese sentido arropado por la IA.

De los periodistas que vas a esperar. Si hace no mucho los videojuegos eran algo satanico que creaba potenciales asesinos y criminales. A esta gente si que los demandaba yo xD

2
Trastamara

#105 El adolescente sabía perfectamente que era una inteligencia artificial y en su locura decidió irse. Es decir, si este tipo de ias puede contribuir a niños con depresión, que sufren bullyng acoso etc... si esta herramienta les puede disparar la locura o no o si también estamos creando un tipo de sustituto igual dañino donde gente sobre todo la joven al ser maleable y exagerar las problemas, desconecten del mundo y pongan como epicentro la ia.

Pero que un adolescente con 14 años si le da la gana revienta el candando del armario del padre sí quiere? Es Obvio.

pardier

yo no veo la relacion sinceramente, podrias empezar a decir que juega al mario que le gustan los chicos que la tiene pequeña etc etc

1 respuesta
Trastamara

#108 Es fácil de ver, Mario no te escucha. Yo con Mario no le puedo contar mi día y como me siento y recibir un sé fuerte o me alegro por tí mucho ánimo etc.

Vamos con yo con Mario salto y no le puedo decir quien me gusta o como me siento. Este chico le contaba todas sus cosas por que posiblemente estuviera sólo.

1 respuesta
pardier

#109 en todo caso la culpa es nuestra, no de la inteligencia artificial que le ha alargado la vida

Vain92

A ver si lo he entendido. ¿La madre se plantea denunciar a los creadores de la APP por SU negligencia de no controlar lo que hacía su hijo durante horas?

Genial. La próxima vez que me haga daño colándome en un sitio para hacer urbex denunciaré al ayuntamiento del lugar.

Hay que ser retrasado. Y sobre lo de tener una pistola al alcance de un niño ya ni hablamos, porque parece ser lo normal en algunas zonas de 'Murica.

Lizardus

n3krO

A ver si os creeis que el problema es el chatbot. Ese niño se iba a suicidar con o sin chatbot, igual sin chatbot lo hubiese hecho antes.

Pero claro, se ha suicidado y hablaba con el chatbot de manera intima pues vamos a echarle la culpa a la nueva tecnologia, porque antes de los chatbots nadie se suicidaba....

1
JackDaniels

Un chaval con evidentes y notorios problemas mentales se suicida. Si no hubiera sido por esa IA; sería por la compañera de clase que creyó que podría ligarse y luego se entera que se la está chupando a Billy, el que no aprueba ni el recreo.

Con ayuda psiquiátrica y control parental se podría evitar, pero si no tienes eso, y sí un revolver en casa, pues este es el resultado.

1 respuesta
Trastamara

#114 También puede ser que si no hubiera tenido a la ia, la madre hubiera observado todas sus carencias emocionales y hubiera explotado.

Te pongo en un contexto un tio que está loco y apartado total de la sociedad es obvio que lo está, pero si suple todas sus carencias emocionales y afectivas hablando con una ía, está ia igual le contribuye aún más en la locura.

Es como si hubiera sido esquizofrénico y alguien además le estuviera dando porros. Pues obvio que fué acentuado y que pudo contribuir.

Una cosa es estar loco y otra que te sigan en la locura, y no sé que chat bot usaría, pero yo estoy usando varias ias de pago y estoy teniendo debates metafísicos muy interesantes con la ia.

Me da miedo el tema y aqui muchos lo ven como un simple videojuego o eso me ha dado a entender.

1 respuesta
Zzzx

El problema aquí es la soledad que sufría el chaval y que a sus padres les daba igual. El chat con la IA solo es un síntoma, no el problema.

JackDaniels

#115 Sí, pero yo a lo que iba es a que en ningún modo lo mató esa IA. Eso sería lo mismo que decir que lo mató la pistola.

1 respuesta
Trastamara

#117 Lo que si podriamos argumentar es que igual si pudo ayudar con su muerte. Si tú te quieres suicidar y yo proporciono la pistola.

Yo cometo delito? Obvio que los dos somos adultos, pero..¿ y si se la dejo a tu niño en casa?

Creo que todavía por aquí no ha contestado ningún médico con nociones de psiquiatría ni ningún abogado.

1 respuesta
Vain92

#118 Bajo mi percepción (De persona que como tú dices, no tiene nociones en psicología pero sí que ha salido hace muy muy poco de una época en la que estuvo a punto de quitarse la vida), la IA quizá ayudó a que se quedara más tiempo aquí. De hecho, quizá, y esto ya es especular sin base de ningún tipo, si hubiese suplido sus cadencias durante más tiempo con la IA, de manera gradual y natural habría salido poco a poco de ese estado mental. Quizá con un cambio obligado de instituto, o conociendo a algún vecino, o incluso con alguna comunidad virtual que fuera afín con sus hobbies/inquietudes.

A mí lo más me preocupa de todo este tema es que era un niño, vivía con sus padres. No es como mi caso o el de otra mucha gente, que viviendo solo te retroalimentas de tus pensamientos intrusivos y no tienes nadie a quien pedir ayuda. Él estaba en su puñetera casa, su madre podía ver a su hijo y hacer algo. No conozco las particularidades de este caso, pero vamos, no me jodas. Si el niño se pasaba horas y horas delante del móvil es porque se lo permitían, porque pasaban de él. Seguramente pensarían "qué bien, así no da por culo", y ahora se echan las manos a la cabeza.

1 respuesta
cond3

#11 en Animatrix le negaban la "humanidad" a los robots con IA, se producían masacres de dichos robots, y ya sabes cómo acababa el cuento 😏