OpenAI anuncia su nueva IA o1 con capacidades increibles

allmy

#48 no es poder hacer lo que antes no podía hacer. Es que puedo hacer en 2 horas lo que tardaría en hacer 2 días.

No soy programador profesional. Pero tampoco soy malo xd. Si hoy a mi podría sustituirme sin mayores problemas, dadle 2 años más.

El futuro es que la gente va a aprender la lógica de la programación, vamos a tener códigos super modulares y una IA te va a hacer el código. Los programadores van a ser QAs con galones.

1 1 respuesta
r2d2rigo

#61 si, igual que los encorbatados llevan 40 años diciendo que el no code es el futuro ya mismito.

1 respuesta
allmy

Ahora mismo lo que os salva a los programadores es que os aprendéis toda la este y y funcionamiento de los proyectos. Y la inercia.

El primer problema es un tema de memoria / parametros, que existe porque no se han centrado en ello nada más. Ya hay IAs en china que pueden escribir libros enteros de 200 páginas. En 2 años tendrá suficiente memoria para leer todo un proyecto grande del tirón.

#62 hoy ya programas la mitad de lo que programabas porque copilot te hace gran parte del trabajo.

1 2 respuestas
kraqen

Por lo que veo, le han metido el 'think step by step' por detrás y solo te da la respuesta final. Y puede que haga un par de instancias concurrentes para ver cual es la mejor respuesta.

Es decir, algo que lleva ya exitiendo año (y medio?), pero que han metido detrás de la UI.

Es una mejora, pero de momento revolución no parece tampoco. A ver como queda aplicado a GPT5.

2 1 respuesta
allmy

#64 que va, procesa diferente. Tiene un motor de inferencia.

1 respuesta
covaga

#28 los tokens son las palabras de sus respuestas?

2 respuestas
verseker

#66 no, son las palabras de tu pregunta

B

#63 esto es el cuento de la lechera, también decían que la conducción autónoma iba a dejar sin trabajo a todos los camioneros, y llevamos años y años esperando una conducción autónoma que realmente funcione, y de la que las aseguradoras quieran hacerse responsables.

Salvando las distancias, desde los 60 ya se decía que los sistemas expertos reemplazarían a los médicos porque evaluarían mejor los síntomas, las pruebas, y darían un diagnóstico más acertado. A día de hoy 65 años después seguimos lejos de eso, lo máximo es una ayuda diagnóstica en algunas pruebas de imagen, y aún en esos casos necesitas biopsias etcétera.

Mi opinión es que está lejísimos de reemplazar a nadie, o incluso de escribir grandes partes de código sin que haya nadie detrás supervisando.

2 1 respuesta
Sephi19

#36 Creo que ya se puede, pero son IAs que hay que pagar y no son baratas, aún así el resultado no creo que sea 10/10 hiper realista.

1 respuesta
ElChuache

Yo solo quiero tener mi Arturito.

1
Nirfel

#69 Los deepfakes de famosos opinan lo contrario

PatatAtomica

Por las respuestas del hilo me da la sensación que no estoy usando el mismo ChatGPT que el resto, eso que no sabéis preguntarle y/o los problemas para los que lo usáis son hiper complejos.

En mi caso para programar cualquier cosa (Python, C#, bash, powershell, LUA) me pega 100 patadas. Quizás no necesariamente en la calidad del código pero es que la velocidad a la que lo genera y soy capaz de hacer las Iteracciones es por lo menos 10 veces superior a la que sería capaz sin el.

¿La calidad es discutible? Bueno, lo puedo llegar a comprar, pero el codigo es perfectamente funcional y a mi me es mucho más eficiente seguir el workflow de generarlo - revisarlo - probarlo.

El tema es que hay que hacerle requerimientos muy concretos y adaptar tus preguntas y solicitudes a lo que sabes que va a ser capaz de generar con más y con menos dificultades pero una vez lo pillas es increíblemente eficiente.

Pero tampoco vengáis diciendo con qué no sirve porque eso sería hacer como que el copy-paste de código que lleva ocurriendo toda la vida no existe hombre.

1 respuesta
Fyn4r

#72

copy-paste de código que lleva ocurriendo toda la vida no existe hombre

Pero nadie dice que no exista, se dice que es una mierda, que genera proyectos inmantenibles y que la gente tendría que aprender a pensar antes de aprender a hacerle preguntas a un generador de texto

1
Sk8eR

le he metido un codigo, me ha dado 2 correcciones postivas y superfluas y 13 tipicas de CTO de mirate esto y esto.
No esta mal, poc a poc

wolfie6949

#66 Los de input son los de tu pregunta, y los de output son los de la respuesta que genera (si no me equivoco). Tampoco son palabras exactamente, cada modelo considera tokens unas cosas u otras, pero simplificándolo mucho podríamos decirse que se trata de palabras, medias palabras o sílabas (aquí puedes probar cómo funciona, si le pones un texto largo verás como no siempre corta por palabras). Al final con cada pregunta y respuesta se genera un importe que lo descuentan de una cartera a la que le vas metiendo saldo.

Yo lo gasto muy poco, hasta hace nada pagaba el Plus pero han habido meses que prácticamente sólo lo he usado un par de días para resolver algún problema, por lo que no me salía a cuenta. Usándolo mediante API sale muchísimo mas barato, por lo general con el modelo 4o-mini me arreglo bastante bien y este mes pasado de Agosto por ejemplo sólo hizo un consumo de un dólar utilizando esa API dos personas eventualmente.

Podría usar el plan gratuito, pero cuando lo hacía muchas veces se colgaba o estás limitado en cuanto modelos, tirando de API eso no pasa.

1 respuesta
kraqen

#65 El 'motor de inferencia' es hacer step by step por detrás (el paper creo que era Chain of thought, pero ya hubo experimentos como Langchain que salieron con GPT3). Es decir, lo que hace el modelo es lo que podías hacer tú haciendo que se preguntara a sí mismo por medio de volver a hacerle prompt con sus propias respuestas para que refine o tenga más tokens para llegar a la respuesta. Lo único que han hecho novedoso es optimizar el modelo para que haga ese proceso.

No ha habido una mejora general como con otros saltos de modelo, solo han conseguido que mejore en lógica con algo que ya se sabía que lo mejoraba.

Y no solo eso, han multiplicado otra vez el coste una barbaridad (x100), por lo que sigue sin ser comercialmente viable.

Que es una mejora, sí, pero tampoco es un gran salto. Eso se verá, si lo hay, cuando apliquen esto al siguiente modelo más grande.

Eso, o a ver como lo integran con lo que prometieron del razonamiento en vivo con Chat GPT-o voice y robótica (están metidos en varios proyectos). Posiblemente una vez mejoren la velocidad/coste de nuevo. Según la propia gente de OpenAI, esto no ha sido un salto mayúsculo a nivel comercial:

3 1 respuesta
r2d2rigo

#63 trabajo lo mismo, en mi empresa se subieron al carro de copilot y 6 meses después han anunciado que no van a renovar las licencias.

Ni los tests unitarios que son corta y pega sabía hacer bien, como para fiarte del código de business que se inventa.

3 2 respuestas
Slowbro

#76 IMHO, si han encontrado una loss function (reward policy si es puro RL) que funcione con chain of though, es un avance de la hostia. La pena es que no lo sabremos ya que OpenAI no es muy open.

Yo le he pedido que me diseñe un bloque logico para calcular matmuls en vhdl (int8/uint8) y me ha sorprendido con una serie de decisiones que ha tomado con contexto prácticamente nulo. Y el vhdl era aceptable.

1 respuesta
covaga

#75 y por API tiene la ocpion de subirles archivos y que tenga como referencia esos archivos como Claude?

2 respuestas
PhDfailer

#77 copilot no es un buen producto (a día de hoy)

los LLM a día de hoy, no deben usarse integrados en el IDE, ya que esto fomenta el copypaste, y el no revisionado, solo se deberian usar como un google mejorado, prototipado y/o todo su producto se debe VALIDAR antes de pasar a producción, antes de integrar con el proyecto, especialmente si no has dado el contexto de todo el proyecto al LLM (cosa dificil si el proyecto por ejemplo es corporativo y está sujeto a copyright)

son ideales por ejemplo para el ecosistema startup, para entorno corporativo los veo muy lejos aún (sin infringir reglas de copyright corporativas)

wolfie6949

#79 Pues no tengo ni idea, yo la uso sólo con texto. Utilizo el cliente Open-webui, supongo que si el API lo permite y la funcionalidad está implementada en el cliente debería de poderse

EDIT: Sí que admite imágenes y las mantiene en contexto:

1 respuesta
TripyLSD

Uno de los grandes beneficios que veo en ese sentido es que casa uno pueda desarrollar su propio "software de mierda" de forma fiable y segura y privada.

Buscar apps simples en las app stores actualmente es horrible. Absolutamente todo es software con publicidad, solicitud de permisos sospechosos, cookies, bloatware, y en los peores casos spyware. Por ejemplo, una app de piano de te sirva para hacer soniditos tontos, o un generador de tonos, un medidor de decibelios, una regla, un nivel usando los acelerómetros del teléfono, un medidor de distancias usando el láser,
etc..

Sería maravilloso que la gente pueda simplemente simplemente redactarle a chatgpt o a lo que sea un software sencillo adaptado a sus necesidades y se lo genere en el acto.

1 2 respuestas
PhDfailer

#82 que buena idea para una app me has dado...

1 respuesta
allmy

#77 nadie dice que no trabajes lo mismo. Lo que digo es que el nivel técnico que se va a requerir de los developers en el futuro va a ser menor. Que va a subir mucho la oferta de developers vaya.

El problema con copilot es la licencia del código en el que lo han entrenado, nada más. Quien no use IA para programar se va a quedar atrás.

#68 que las cosas se desarrollan más lentas que lo que se piensa al principio es un hecho. Pero la conducción autónoma está madurando poco a poco.

1 respuesta
DiegoZen

Se acabó el "trabajar" en Bali moviendo el ratón para salir en verde en el teams

a currar

bLaKnI

En mi caso, que soy one-man-band, ChatGPT se ha convertido en mi mejor amigo. Pero con muchos PEROs. Me chifla cuando te escupe un buen código. Y te lo revisas, y se te pone esta cara:

spoiler

#78 matmuls en vhdl (int8/uint8) pero que cojones!?
Eres ingeniero electrónico o un puto freak de los "arduinos" & co.?

1
AstroTurfer

En general me ha dado buenos resultados cuando he tenido dudas de programación, pero en su momento intentando optimizar un código con concurrencia y múltiples hilos, se le iba la flapa y menos mal que me ponía a revisar el código antes de usarlo... No sé si habrá mejorado eso.

cabron

#82

Si usas android mira f-droid que tiene precisamente lo que pides, aplicaciones que hacen X cosa concreta sin publicidad ni intentar robar todos tus datos.

Puede que no haya una aplicación para todo pero yo siempre he encontrado lo que necesito

2 1 respuesta
covaga

#81 ah con claude es diferente, yo le cargo archivos y ya sabe de que hablo y no desvaría nada.

1 2 respuestas
Aziwar

para mi perplexity sigue siendo el sweet spot