Me acaba de llegar un email de Claude y dice que ya está disponible en Europa, por si os interesa probarlo
#571 a mi también, hay alguna UI para hacer la miisma pregunta a varias IA a la vez? Estoy usando gemini, chatpgt, llama3 en groq y ahora quiero Claude pero no quiero ir decidiendo cada vez a cual quiero preguntar
Google va a anunciar algo dentro de poco también. No se si ahora con 4o (y otras mejoras que vendrán) llegan tarde los de Anthropic liberando a Claude para Europa.
Necesito una IA para hacer un cartel, es como el itinerario para una despedida de soltero.
Cuál podría usar?
Que sea gratis
#576 Gratis... solo sabría decirte esto https://www.bing.com/images/create
El problema de un cartel es que tiene muchísima resolución para imprimirse. Una imagen a 1024 de cualquier IA no te va a dar...
#576 Yo encontré no hace mucho https://pixai.art/, aunque es mucho para anime al comienzo puedes usar varios modelos y enviar fotos para que las tomes de referencia, puedes ajustar la imagen y varios parámetros más, yo he sacado paisajes chulos probando, hasta puedes animar algunas imágenes un poco.
algo que me haga una presentación (no hace falta videos ni pp, simplemente un documento), de algún tema, en plan "alternativas a vdi de virtualización de escritorio remoto"? exponga unas cuantas y sus ventajas respecto al vdi?
#582 me hice un hola mundo con llamaindex o algo así, es bastante rápido montarte algo fácil pero se me fue el santo al cielo y me hice una librería para leer epubs y acabé dejando el hola mundo tirado
long story short lo del RAG lo veo super útil y sencillo para un uso de andar por casa, de las pocas cosas que veo inmediatamente útiles para el día a día de usuario normal
#581 gracias, me ha generado un texto bastante decente, pero le pido que me haga un word o pdf y dice que nada.
"Actualmente, no puedo generar archivos directamente, pero puedo proporcionarte el contenido en un formato adecuado para que puedas copiarlo y pegarlo en un documento Word o PDF. Aquí tienes el texto en un formato listo para ser copiado:"
Alguna otra web que pegando todo me haga un word o pdf así de presentacion?
Ojo que acabo de ver que ChatGPT me deja añadir vínculo con mi drive de Google
Edit: basura, solo es para añadir archivos sin más. Pensé que rastreaba entre agenda, correo, archivos, etc. Vaya decepción.
#585 Ese tipo de integración la tienes en Copilot de Microsoft. Aunque la versión chula viene de la mano de la subscripción en Office 365
#587 en breve se viene con gemini. Por si no está puesto aquí dejo los momentos claves de la IO:
#590 De ahí mi delicadeza al poner el digest de 17' XDXD
Yo lo intenté ver en diferido y me quedé dormido las dos veces que lo intenté. Finalmente me decanté por los sneakpeaks y pa'lante. De todos modos, ya sabemos que todo esto es publicitario, dando a entender muchas cosas que luego irán un poco... bueno, menos suaves.
Realmente, estoy la mar de interesado en montarme un RAG autohosteado (hay varios puntos del evento en el que se entiende el uso de RAG); a ver cuándo continúo con el proyecto.
#591 No es complicado, para hacer uno sencillo en poco tiempo con Qdrant y Llama-cpp-python con un modelo pre-entrenado te montas un sistema RAG decente y rápido.
#592 agradecido por tu comentario. Lo que me está ocurriendo es que con ollama y llama3, usando langchain, el "estructured output" no está implementado; y que, en especial, me interesa tener las referencias concretas del RAG que el modelo use en la salida, durante la salida (parrafo [cita1, cita2], parrafo [cita 3]). El RAG ya lo tengo montado como tal, autoencodeado y en su bbdd. Puedo sacar info de él. Igual tendría que abordar el problema desde otro prisma, quizás tal como tú estás proponiendo.
#593 Si te entiendo bien, disculpa si no es así, podrías probar con el LlamaCppPython, según la exp. que tengo probando varias librerías para ejecutar LLMs la librería cambia el desempeño del modelo (aunque este sea el mismo, debe ser cosa del motor interno de cada una).
Yo con langchain no acabe contento del todo usando los modelos, si que lo utilizo más para el tema de procesado de documentos y demás por la amplitud de los loaders que tiene para casi todas las extensiones.
Con LlamaCppPython al inicializar el modelo LLM le metía en el rol de system (la config base) la estructura de salida y me solía respetar el comando, le podía pedir una tabla y darle el formato deseado y solía ser agradable la respuesta, por si quieres probar y puedes estructurarlo como tu quieras.
El tema de referenciar la salida del RAG yo lo que estoy haciendo es lo siguiente, con Qdrant como librería para manejar la base de datos del RAG al procesar los vectores de los textos le añado una serie de metadatos que se quedan ligados al array de vectores, de manera que cuando le lanzo la query para obtener el contexto al RAG puedo recuperar las referencias de los metadatos y usarlas para el output o la LLM al igual que el contexto que recuperas.
No se si te puede servir de ayuda compi, llevo solo 1 año trasteando estos bichos hehe
#595 Nada compi! se intenta ayudar hehe tu haces contribuciones muy chulas, pues no tengo esto en un repo la verdad, o lo que tengo no esta acabado porque no tengo tiempo después de currar para ponerme con esto, y tengo pendientes un par de actualizaciones.
Pero si quieres comentarme lo que sea siéntete libre, si puedo intentaré enviarte algo, que esta semana quería intentar sacar algo de tiempo.
#596 Fenómeno, si finalmente monto diario con el proyectito (del que lo que he comentado es el esqueleto), no me olvidaré mencionarte para aprovecharme un poco de ti
Un abrazo,
#597 que crack hehe solo te añado como dato, en llama-cpp-python al menos en el entorno que trabajo, que es restrictivo, las versiones 0.2.x me estaba fallando la instalación por temas ajenos, pero tengo localizado que la versión 0.1.78 funciona estable, lo malo es que necesita modelos "antiguos" de LLM y no soporta los actuales, pero es funcional aunque sea para poder tirar pruebas.
Un abrazo!
#599 un RAG es una forma de vectorizar información y hacerla accesible. Una aplicación de esto es dirigir la respuesta de un modelo de lenguaje para que beba del RAG creando una respuesta fundamentada y referenciada (con los documentos, la información del RAG).
Por ejemplo, piensa que mañana uso un modelo que se terminó de entrenar anteayer. Ayer mataron al presidente de España. ¿Qué ocurriría si hoy le preguntas a ese modelo cómo murió el presidente de España? Pues que alucinará, se lo inventará o a saber. Sin embargo, si te montas un RAG con, por ejemplo, los periódicos de hoy, el modelo responderá basándose en y referenciando la información del RAG.
Esta es solo una aplicación práctica, pero hay muchísimas.