Vamos construir um aplicativo RAG "Converse com o seu Código" usando o Qwen3-Coder:
Antes de começarmos, dê uma olhada no que estamos prestes a criar! Stack tecnológico: - @Llama_Index para orquestração - @Milvusio para auto-hospedar um vectorDB - @CleanlabAI codex para validar a resposta - @OpenRouterAI para acessar @Alibaba_Qwen 3 Coder. Vamos lá! 🚀
O diagrama de arquitetura apresentado abaixo ilustra alguns dos componentes chave e como eles interagem entre si! Seguir-se-ão descrições detalhadas e código para cada componente:
1️⃣ & 2️⃣ : A carregar a base de conhecimento Uma base de conhecimento é uma coleção de informações relevantes e atualizadas que serve como fundamento para RAG. No nosso caso, é um repositório do GitHub! Aqui está como dividimos & analisamos a nossa base de código usando o parser de código hierárquico do @Llama_Index:
3️⃣ O modelo de incorporação A incorporação é uma representação significativa de texto na forma de números. O modelo de incorporação é responsável por criar incorporações para os fragmentos do documento e consultas de usuários. Aqui está como carregamos nosso modelo de incorporação:
4️⃣ Indexação e armazenamento As embeddings criadas pelo modelo de embedding são armazenadas em um armazenamento vetorial que oferece recuperação rápida e busca de similaridade, criando um índice sobre nossos dados. Usaremos um banco de dados vetorial auto-hospedado @Milvusio:
5️⃣ Criando um modelo de prompt Um modelo de prompt personalizado é usado para refinar a resposta do LLM e incluir o contexto também:
6️⃣ Configuração de um motor de consulta O motor de consulta recebe uma string de consulta para usá-la para buscar o contexto relevante e combina-os usando o modelo de prompt antes de enviá-lo ao LLM que gera a resposta final! O LLM utilizado aqui é o mais recente Qwen3-Coder!
7️⃣ A interface de Chat Criamos uma UI usando Streamlit para fornecer uma interface de chat para a nossa aplicação RAG. O código para isso e tudo o que discutimos até agora será compartilhado no próximo tweet! Veja isto👇
Bónus! Vamos usar o codex de IA da @CleanlabAI, uma forma inteligente de validar e melhorar as suas respostas. Usámos o mesmo para obter a pontuação de confiabilidade. Integra-se perfeitamente com qualquer aplicação de chat agentic ou de IA que esteja a desenvolver. Veja isto👇
Você pode encontrar todo o código neste repositório do GitHub: (não se esqueça de dar uma estrela 🌟)
Finalmente, deixo-vos com o diagrama de arquitetura da aplicação que construímos. Espero que tenham gostado deste tutorial. Fiquem atentos para mais! 🥂
Se você achou isso perspicaz, compartilhe novamente com sua rede. Encontre-me → @akshay_pachaar ✔️ Para mais informações e tutoriais sobre LLMs, AI Agents e Machine Learning!
Akshay 🚀
Akshay 🚀25/07, 01:06
Vamos construir um aplicativo RAG "Converse com o seu Código" usando o Qwen3-Coder:
68,68K