Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vamos a crear una aplicación RAG "Chat with your Code" usando Qwen3-Coder:
Antes de comenzar, ¡eche un vistazo a lo que estamos a punto de crear!
Pila tecnológica:
- @Llama_Index para orquestación
- @Milvusio autoalojar una base de datos vectorial
- @CleanlabAI códice para validar la respuesta
- @OpenRouterAI acceder a @Alibaba_Qwen 3 Coder.
¡Vamos! 🚀
¡El diagrama de arquitectura presentado a continuación ilustra algunos de los componentes clave y cómo interactúan entre sí!
Será seguido por descripciones detalladas y código para cada componente:
1️⃣ & 2️⃣ : Cargando la base de conocimientos
Una base de conocimientos es una colección de información relevante y actualizada que sirve de base para GAR. ¡En nuestro caso es un repositorio de GitHub!
Así es como fragmentamos y analizamos nuestra base de código utilizando el analizador de código jerárquico de @Llama_Index:

3️⃣ El modelo de incrustación
La incrustación es una representación significativa del texto en forma de números.
El modelo de incrustación es responsable de crear incrustaciones para los fragmentos de documentos y las consultas de los usuarios.
Así es como cargamos nuestro modelo de incrustación:

4️⃣ Indexación y almacenamiento
Las incrustaciones creadas por el modelo de incrustación se almacenan en un almacén de vectores que ofrece una recuperación rápida y una búsqueda de similitud mediante la creación de un índice sobre nuestros datos.
Usaremos una base de datos vectorial de @Milvusio autohospedada:

5️⃣ Crear una plantilla de aviso
Se utiliza una plantilla de aviso personalizada para refinar la respuesta de LLM e incluir también el contexto:

6️⃣ Configuración de un motor de consultas
El motor de consultas toma la cadena de consulta para usarla para obtener el contexto relevante y los combina usando la plantilla de solicitud antes de enviarla al LLM que genera la respuesta final.
¡El LLM utilizado aquí es el último Qwen3-Coder!

7️⃣ La interfaz de chat
Creamos una interfaz de usuario utilizando Streamlit para proporcionar una interfaz de chat para nuestra aplicación RAG.
¡El código para esto y todo lo que discutimos hasta ahora se comparte en el próximo tweet!
Mira esto👇

¡Sobresueldo!
Utilizaremos el códice de IA de @CleanlabAI, una forma inteligente de validar y mejorar sus respuestas.
Hemos utilizado lo mismo para obtener la puntuación de confiabilidad.
Se integra a la perfección con cualquier aplicación de chat de inteligencia artificial o agente que esté desarrollando.
Mira esto👇

Puedes encontrar todo el código en este repositorio de GitHub:
(no olvides protagonizar 🌟)
Finalmente, los dejaré con el diagrama de arquitectura de la aplicación que hemos creado.
Espero que hayas disfrutado de este tutorial. ¡Estén atentos para más! 🥂
Si te ha resultado interesante, vuelve a compartirlo con tu red.
Encuéntrame → @akshay_pachaar ✔️
Para obtener más información y tutoriales sobre LLM, agentes de IA y aprendizaje automático.

25 jul, 01:06
Vamos a crear una aplicación RAG "Chat with your Code" usando Qwen3-Coder:
68.71K
Populares
Ranking
Favoritas