#217 Me parece un análisis muy deshonesto. Ningún proyecto se hace en un minutos y viene de una petición de un párrafo. Cualquier mierda a nivel empresa conlleva horas de reuniones, revisión y reenvío de documentos y mucha prueba y error. Por lo visto hasta ahora, las herramientas basadas o integradas en GPT4 no están muy lejos de intervenir en esto, sustituyendo o aligerando una gran parte del proceso.
Que sí, estamos muy lejos de que por arte de magia se construya algo impresionante sin ninguna dirección. Pero si no lo estamos ya, estamos muy cerca del punto de que muchos proyectos complejos puedan gestionarse por un número muy inferior de personas y con mucha menos especialización.
#219 #224 Que va a haber burbuja no quita que no vaya a pasar como con internet y que acabe siendo dominante en la economía.
#225 Llevamos ya un mes en el que se ha visto que los LLM más potentes son capaces de ayudar y abaratar mucho el entreno de otros modelos inferiores. Desde el experimento con convertir LLAMa en un modelo al nivel de GPTChat 3.5 con ayuda de este, hasta Bard que al parecer está usando a GPT4 para ser entrenado.
La inversión no es tan alocada como lo era hace un año. Y según mejore el hardware y la optimización de los modelos actuales, varios ya en libre, la cosa será más sencilla para que alguna start-up modesta puesta seguir innovando y sorprendiendo a todos. Por eso que dudo mucho que nadie vaya a parar, porque comercialmente el detenerse unos meses puede hacer que te suplanten ahora mismo que no hay nada estabilizado.