ChatGPT AI conversacional te hace los deberes

Cuk_Man

Para ejecutar estos modelos en local debes tener una potencia enorme a día de hoy, y no creo que en poco tiempo se logre tener a disposición esa potencia en local. Ya los modelos OpenSource que puedes tener de LLM requieren una potencia decente para obtener una respuesta relativamente rápida.

Algo como ChatGPT requiere de bastante más, esto, sin contar que cualquier cosa que quieras pedir o hacer que requiera de algo complejo este tiempo va a escalar.

Chikedor222

Nunca he sentido que llegue a sacarle partido del todo a Chat GPT. ¿Algun tip?

Erterlo

He hecho pruebas con ChatGPT4All en un I7-4770 y 16Gb de RAM en local y funciona regulero, no sé como irá en un equipo más moderno, además que el programa que utilicé solo tiraba de CPU y no de GPU, tampoco sé si tirando de GPU la cosa puede fluir más, pero de funcionar funciona.

Entiendo que esto acabará como Azure y todo lo Cloud, para todo lo demás pequeñas GPT's enfocadas a cosas específicas.

De todas formas, me parece una maravilla y lo que se viene va a ser increíble. Más que la perdida de profesionales, creo que la cosa va a escalar en la gran cantidad de profesionales que podrá crear contenido en grandes cantidades y en tiempos cortísimos de calidad y desde su casa, simplemente aprendiendo a comunicarse con una máquina.

1 respuesta
bLaKnI

¿Habéis visto lo de Q*?
Parece que a lo largo del día se ha dicho que "no había para tanto"... pero parece prometedor.

2 respuestas
Cuk_Man

#1203 Hasta donde yo probé, con GPT4All y llama_cpp_python en CPU y algo decente de equipo, las cosas costosas y complejas puedes sacarlas en 3 minutos y medio, por acción digamos.

Mira la extensión o formato del modelo, en función de que tipo de modelo usas utiliza GPU o CPU, cada una tiene sus "pros y contras" digamos.

1
ercabesa

#1204 yo he oído ruido pero no se q coño esta pasando si alguien tiene mas info

también he visto ruido con lo de q learning que es para RL pero no se si está relacionado

1 respuesta
-nazgul-

#1200 State of the art es una expresión inglesa que se refiere al ejemplo más avanzado de una ciencia o tecnología.

jmdw12

#1206 lo que he leído es que es capaz de resolver matemáticas a nivel de primaria. Lo que temen es que el modelo sea capaz de aplicar razonamiento lógico y no sólo modelos estadísticos para resolver problemas. Esto es todo en base al artículo de Reuters que es la fuente original del rumor.

2 1 respuesta
ercabesa

#1208 esta tarde leeré más, pero si lo de q es por q learning significa q le han metido aprendizaje por refuerzo, y eso cambia el juego bastante

significaría explicado mal y pronto q puede aprender por de si misma, es decir no solo de lo aprendido de por si

1 respuesta
bLaKnI

#1209 El resumen es que nos alejamos de la vertiene "linguística computacional" y nos metemos de lleno en la de "IA clásico-convolucional". Y eso significa, aprendizaje por ensayo error y minimización del error cuadrático. Es decir, NL certera.

1
GaN2

Aqui hay un articulo bastante bueno de lo que paso con Altman y su despido como CEO ademas de desmontar ciertos mitos como el tema del non-profit:

https://newsletter.pragmaticengineer.com/p/five-days-of-chaos-at-openai-and

La estructura organizativa que tienen es cuanto menos llamativa...

1
9 días después
ercabesa

Google acaba de sacar Gemini, pinta bastante bien, a ver si saco tiempo para informarme mejor

GaN2

Y aquí la Keynote:

https://blog.google/technology/ai/google-gemini-ai/#performance

La versión ultra es solo para trusted-users y todavía no está disponible para todo el mundo.

4
MekMek

Qué sería actualmente lo más similar a ChatGpt respecto a imágenes? A nivel de facilidad, que sea gratuito, etc?

allmy

ChatGPT ya ha sacado un nuevo modelo para empresas, aunque no se por qué nadie ha dicho nada. Hasta 100k tiene la versión grande. Tiene nombre de tio.
Justo lo he visto hoy en el gpt de mie mpresa.

2 respuestas
A

Las pocas veces que lo he usado no me ha sabido realizar sumas básicas.

Para cosas que no son matemáticas ha cumplido.

kraqen

#1215 ¿No es lo que salió en el dev day?

1 respuesta
Freak1337

#1215 es la versión Enterprise de gpt4, no?

1 respuesta
allmy

#1217 #1218 no, no es gtp4, se llama “Claude-100k” y “claude-100k-instant”

Ah espera es otra

1 respuesta
Freak1337

#1219 ah, si, la conozco. Personalmente aun no me termina de gustar sobre todo para programación es regulona, pero tema procesar textos y demás es muy buena y en noviembre lanzaron la versión 2.1 con 200k de contexto que es una burrada https://www.anthropic.com/index/claude-2-1

1 mes después
neiclon

¿Conocéis alguna herramienta, aunque sea de pago, que vaya transcribiendo una conversacion en tiempo real y que la traduzca al español?

1 respuesta
jmdw12

#1221 Microsoft teams

24 días después
chiptune

Echadle un ojo al hilo, un tipo se ha llevado más de 100.000€ de dinero público presentando carteles con el primer resultado de Bing.

1 respuesta
bLaKnI

#1223 Sin embargo, si lo hubiera hecho con los pertinentes programas de edición, currando horas sin dormir, con sus cursos y carrera debajo del brazo y con años de "senior"ismo en múltiples empresas, comiendo y cagando mierda día tras día, entonces sí. El dinero estaría bien merecido y bien ganado, ¿no?

Pues ajo y agua familia. O la peña se pone las pilas, o acabáis comiendo pipas en una cuneta.

Ha sido más rápido, mas listo, mas moderno y mas inteligente. Se usa un recurso de los que existen ahora y es tan válido como cuando la gente escribía los primeros textos a PC y los imprimía y los "escribas" indignados clamaban al cielo...

Como el de márqueting que usa Canva y vuela, y el lumbreras que lleva toda la vida en la empresa ensaquetado con su licencia de Photoshop CS "whatever" se queja por no usar "la suite empresarial"...

Si la calidad es buena, chitón y a otra cosa.

EDIT: oh! y aprovechando el tirón, saco yo mi versión!

5 3 respuestas
chiptune

#1224 Hablas como si yo me dedicara al arte o algo, pero yo esto lo veo penoso desde el punto de vista de persona con ojos, no desde el ámbito laboral.

En cinco años cuando todo sea un pastiche de AI re-re-re-re-reciclando a otras AI hablamos.

1 1 respuesta
bLaKnI

#1225 No no, mi replica es al tweet, no a ti.

Refrítame esta:

no ha acabado de sacar bien el titulo... xD

E

#1224 Como toda herramienta nueva la gente se está aprovechando de la falta de herramientas para detectarlo. El ejemplo que comentas es el matiz exacto, esto debe ser una HERRAMIENTA. Luego tiene que haber un trabajo detrás. Escribir una frase y dejar que una IA tome ideas sin permiso del trabajo de otros para hacer un popurri y que lo único que hagas sea copiar y pegar en 30 segundos, lo único que hace es que la creatividad termine por desaparecer. y terminemos con un batiburrillo absurdo de cosas que se parecen unas con otras como gotas de agua con 0 creatividad. Y si dejas que eso suceda, ya será tarde porque has perdido una generación entera de gente formada.

Es como pedirte un trabajo sobre la segunda guerra mundial y pedirle a ChatGPT que te haga un resumen, copiarlo y pegarlo. La idea de pedirte ese trabajo es que LEAS, asimiles y resumas dicho contenido para que adquieras unas habilidades. No es el trabajo en si. Si dejas que eso suceda, esa persona será absolutamente incapaz de asimilar y sintetizar contenido, que a su vez desarrolla otras habilidades necesarias en el día a día de cualquier adulto. Como sucedió cuando aparecieron las primeras enciclopedias online, al principio te pillan con la guardia baja. Pronto aparecerán herramientas que lo detectan y se acabará el chollo.

Mientras tanto siempre se pueden pedir pruebas del proceso de diseño como imágenes del proceso intermedio. Siempre se podrá falsear pero al menos que se lo curren un poquito.

No veo sentido a defender algo así salvo que algún diseñador gráfico te haya robado a la novia y simplemente les tengas odio por ello.

2 1 respuesta
m4a1sd

¿Habéis tenido problemas para cancelar la suscripción? No me deja entrar en “Mi plan”.

1 respuesta
bLaKnI

#1228 Es un bug de hace casi un par de meses. No hay tu tia.
El truco? Accede en ventana de incognito al vinculo. Relogueate y ya puedes entrar.

#1227 para nada. Y es que es EXACTAMENTE como dices: UNA HERRAMIENTA.
el problema es todo el batibullo de tontearías que se le ha empaquetado a "la IA". Y por eso, nadie entiende nada.
Uso permanentemente ChatGPT en mi día a día.
Como CTO, me empodera más aún si cabe. Es DESCARADO.

El ERROR GARRAFAL es pretender que eso, sea el resultado de aquello que se esté haciendo.
Hay que ver ChatGPT como TODO el internet en un mismo y único punto, consultable en tiempo real y ajustado en su mayoría a lo requerido.
Y eso, es lo que es.

¿Qué defiendo? Que es una herramienta.
Que el concurso seguramente no tenia "bases" claras y que es tan válido lo presentado entonces, como cualquier otra cosa.
Es bonito? Es OK? Pues tal cual. Rápido, bonito y barato.

Es otro ERROR GARRAFAL creer que se perderá gente, creatividad, que se refritaran cosas, etc... a partir de un "determinado momento incierto en el futuro próximo".
Eso YA SUCEDE ahora. Lleva sucediendo desde que pasamos del sector secundario al terciario. Hasta que no sale "algo nuevo", lo demás es refrito tras refrito en pro del capitalismo mas abundante.

El que no entienda que esto son utilitarios para usar en el día a día y darle GAS a cualquier actividad que se precie y lo siga viendo como "el fin de los días que blablabla...", lo que digo: comerá pipas en la cuneta.

Saltará gente? Coño CLARO! Quienes? Los que estén viendo al lobo, en vez de al progreso. Fin.

Luego ya vendrán las AGIs y entonces hablaremos de otras cosas.

1
vc15

#1204
Mínima olímpica planificando el calendario de competiciones con ChatGPT

https://www.runnersworld.com/es/noticias-running/a46645002/john-heymans-juegos-olimpicos-paris-2024-chat-gpt/

1 respuesta