una pregunta, me vale el pro pagando la misma cuenta desde el pc y la app en IOS? es que en una me da un precio y en otra otro
PD: me lo resolvió el propio chatgpt
#1320 No. En unas semanas. Revisad la web oficial.
#1321 Si, 1 cuenta, multilogin.
#1322 Queda BASTANTE, con suerte final de año. Con MUCHA suerte...
#1323 Es simple y llanamente impresionante. Hoy han cargado nuevo look'n feel en la web. Como el de los videos. Asi que poco a poco se vienen los upgrades.
- Como novedad de la hostia, gpt4o viene por defecto conectado a internet. Eso SI es un upgrade de narices.
Merece la pena pagar el pro para la elaboración de textos del curro o con el gratuito vale? Graciasss
#1325 tío, en serio, es que me cago en la puta xD
La sensación de impacto que tiene 4o es la misma que cuando llegó 3 y le preguntábamos polladas y contestaba "bien" y rápido. Ahora contesta SÚPER BIEN y SÚPER RÁPIDO, es impresionante.
#1325 lo que no entiendo es cómo se produce el procesamiento de vídeo cuando sea que lo activen. O sea entiendo como, lo que no entiendo es cómo pueden dar cabida a ese volumen.
#1329 En la demo anterior de Google o Antrophic enseñaron como en un minuto procesaba una hora de vídeo y podía buscar datos de toda la película. Saltar a esto puede que sea menos complicado (sin saber nada de arquitectura). Tal vez le bajen mucho la resolución o algún otro truco para optimizar.
Yo creo que estos videos que hemos visto funcionan cuando hay un nivel bajo de demanda. En el momento que lo abran y todo internet esté ahí haciendo pruebas de mierda con sus videos, el servicio no va a ser tan real-time como lo pintan.
Ojalá me equivoque, pero al final todas las demos que se han ido viendo han sido más espectaculares que el resultado final que le hemos podido dar.
#1331 guau. Cada día me interesó más por la arquitectura de esas cosas. Luego miro a ver qué puedo encontrar
funcionan los GPT con 4o o hay que configurarlos de alguna forma? me siguen yendo igual que siempre.
#1332 De hecho el modo de voz con chatgpt ya peta, y eso que no es el nuevo. Imagina si triunfa y están todos dale que te pego.
Encima es tan inútil que ni siquiera han pensado en guardar el input del usuario en caso de que este falle. Te puedes tirar 30 segundos hablando, que chatgpt te responda "sorry our systems are busy right now, please try again later" y tengas que repetir toooodo el mensaje otra vez de memoria probando suerte para que esta vez sí que funcione. 0 usabilidad en este aspecto.
#1336 absolutamente cierto. Pero con el nuevo voice-mode proximo, como se puede interrumpir a la maquina al hablar, creo que dejaran footprint de la converdsacion. Sino, es magia negra.
#1329 #1331 #1332 Se dice se comenta (reddit), que detrás NO hay GPT4 o directamente LLM. Se intuye que hay otra cosa o algo mas. En teoria, se supone que el secreto es que por debajo se derivan por "lo bajini" cosas a SORA. Y que por eso las capacidades de procesamiento superan todo lo visto, entre ellas el video. Porque ahora ya le puedes subri tambien un video como archivo o directamente pasarle una URL de youtube y pedirle que te resuma, trocee, liste, de los pasos, etc... de lo que sea el video. Probadlo.
#1327 Es monstruoso. Lo unico que veo que sigue pasando y ahora se nota mas porque todo crece a toda hostia, es que cuando el chat es ENORME, se "laguea" y deja de ser fluido. Sigue VOLANDO, pero porque ves como los tochos de texto aparecen de golpe a hostias. No le ves la finura suavidad, cuando llevas mucho trasteo. Mejor arrancar otro chat nuevo, como siempre. RAM por chrome no es. Voy con 64 de alta capacitación. Ni proc. Podria ser por GPU en chrome? Creo que no es local por eso. Porque este comportamiento lo veo en muchos sitios donde lo uso.
edit:
la tercera feature (1 - internet per se / 2 - intepretacion de videos as-is), es la de trabajar con un generador de imagenes mejor.
Ahora es capaz de "retener" escenarios y personajes. Asi que puedes pedirle que te reuse el mismo escenario de una imagen generada para otra. O puedes pedirle que te use al mismo personaje. Lo retiene sin problemas. Es brutal.
Y la calidad de luces empieza a ser importante (para ser Dall-e):
y el in-painting es ultrafino ahora:
y las variaciones, brutales:
falta MUY POCO para que sea literalmente imposible de distinguir la realidad y es mas, se acabo programar como lo entendíamos hasta ahora.
Tanto el motor grafico, como el core de cualquier juego o entorno, será próximamente autogenerativo. Se acabo opengl, directx, las GPUs y los polígonos. Los chips van a ser de AI. Y la realtime generation será la clave. La unica manera de conectarnos por stream a un supergenerador y interactuar con el. Con interactividad en SORA o similares, es factible algo tipo lo que queria hacer Google con STADIA, por ejemplo. Pero no para plataformas de juegos, sino de interactividad realista.
Esta claro que este es el futuro. La interaccion se añadira como proceso de inmediación en el autogenerado por los LLMs. Asi, imagen y situacionalidad sucederán en real-time. Tengo claro que el futuro será trabajar en las interacciones hacia las IAs como input generativo para el RT.
Sabéis si es capaz de leer PDFs tochos? tengo un manual de 2000 páginas que seria interesante de probar
Acabo de ver como traduce de Español al dialecto local filipino de mi pareja (visayas) en tiempo real. Si alguno trabaja como traductor, que empiece a formarse en otra cosa.
Eso sí, no he conseguido que me resuma videos de youtube, me pide que le pase la transcripción...
#1341 Que raro, yo le pase un video de youtube y me lo resumio. Tienes cuenta premium ?. Yo vi como hacian eso en vivo en la presentación y dije hasta aca llego el curro de traductorados.
Es imposible que dejen toda esa potencia abierta y gratis. Por algun lado explotará o empezará a ir a pedales.
Ahora mismo es casi instant.
#1345 Eso, o realmente se les ha metido entre ceja y ceja, el ir a por la AGI, a todo coste.
Me flipa lo divertido que es jugar con dall-e ahora...
Algo pasa. Ya no puede acceder a los videos de youtube...
O Google ha dicho que a tu puta casa, o ya estamos como siempre con OpenAi, que sacan oro y lo convierten en cobre...
edit: parece que los tontopollas de los sites principales se han puesto las pilas en 24h para evitar que se les coma ChatGPT:
No puedo acceder directamente al video en Vimeo debido a restricciones de la página. Sin embargo, puedes describirme el contenido o darme una breve reseña del video, y estaré encantado de ayudarte a entender o analizar lo que sucede en él.
asi que "si", debe existir algun tipo de "robots.txt" para las ia's...
que imbeciles... es meter puertas al campo joder.
Entiendo que OpenAI no querrán meterse en berenjenales. Pero ha quedado claro que son capaces de saltarselo. Durante 24h, ha sido asi...
Ojala Sam le meta mas huevos...
edit2: parece que ni un triste mp4 directo de imgur. Aqui no se queja de restricciones pero ya dice que "no puede ver videos directamente"... creo que nos dieron un "taste of flavour" ayer y hoy han dicho "coño". Como se noto que corría con SORA seguramente ahí el método de pago nuevo. Algo asi va a ser... sino no lo entiendo... Que pena, porque siendo plus, no deberían estar tocando las narices...
En fin, veremos. Vamos al minuto. Pero desde luego, ayer era la polla, hoy "ya no tanto" (sigue siendo un salto epico).
#1347 Nono, en GPT. Pero parece que lo caparon "Parece que no puedo acceder al video de YouTube directamente desde aquí. Sin embargo, puedes proporcionarme una breve descripción del contenido del video o el título, y podré ayudarte a entender de qué trata." hasta hace 10horas habia probado y me dejaba
edit: Es raro, por que probe nuevamente con el video de hoy a la mañana que le pedi que me resuma y me lo resumio nuevamente(basicamente es un video de la universidad donde curso de patrones de diseño y esas cosas). Puede ser que sea dependiendo del video, si tiene copyright o si no tiene copyright... A saber que usaran