Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vamos construir um aplicativo RAG "Converse com o seu Código" usando o Qwen3-Coder:
Antes de começarmos, dê uma olhada no que estamos prestes a criar!
Stack tecnológico:
- @Llama_Index para orquestração
- @Milvusio para auto-hospedar um vectorDB
- @CleanlabAI codex para validar a resposta
- @OpenRouterAI para acessar @Alibaba_Qwen 3 Coder.
Vamos lá! 🚀
O diagrama de arquitetura apresentado abaixo ilustra alguns dos componentes chave e como eles interagem entre si!
Seguir-se-ão descrições detalhadas e código para cada componente:
1️⃣ & 2️⃣ : A carregar a base de conhecimento
Uma base de conhecimento é uma coleção de informações relevantes e atualizadas que serve como fundamento para RAG. No nosso caso, é um repositório do GitHub!
Aqui está como dividimos & analisamos a nossa base de código usando o parser de código hierárquico do @Llama_Index:

3️⃣ O modelo de incorporação
A incorporação é uma representação significativa de texto na forma de números.
O modelo de incorporação é responsável por criar incorporações para os fragmentos do documento e consultas de usuários.
Aqui está como carregamos nosso modelo de incorporação:

4️⃣ Indexação e armazenamento
As embeddings criadas pelo modelo de embedding são armazenadas em um armazenamento vetorial que oferece recuperação rápida e busca de similaridade, criando um índice sobre nossos dados.
Usaremos um banco de dados vetorial auto-hospedado @Milvusio:

5️⃣ Criando um modelo de prompt
Um modelo de prompt personalizado é usado para refinar a resposta do LLM e incluir o contexto também:

6️⃣ Configuração de um motor de consulta
O motor de consulta recebe uma string de consulta para usá-la para buscar o contexto relevante e combina-os usando o modelo de prompt antes de enviá-lo ao LLM que gera a resposta final!
O LLM utilizado aqui é o mais recente Qwen3-Coder!

7️⃣ A interface de Chat
Criamos uma UI usando Streamlit para fornecer uma interface de chat para a nossa aplicação RAG.
O código para isso e tudo o que discutimos até agora será compartilhado no próximo tweet!
Veja isto👇

Bónus!
Vamos usar o codex de IA da @CleanlabAI, uma forma inteligente de validar e melhorar as suas respostas.
Usámos o mesmo para obter a pontuação de confiabilidade.
Integra-se perfeitamente com qualquer aplicação de chat agentic ou de IA que esteja a desenvolver.
Veja isto👇

Você pode encontrar todo o código neste repositório do GitHub:
(não se esqueça de dar uma estrela 🌟)
Finalmente, deixo-vos com o diagrama de arquitetura da aplicação que construímos.
Espero que tenham gostado deste tutorial. Fiquem atentos para mais! 🥂
Se você achou isso perspicaz, compartilhe novamente com sua rede.
Encontre-me → @akshay_pachaar ✔️
Para mais informações e tutoriais sobre LLMs, AI Agents e Machine Learning!

25/07, 01:06
Vamos construir um aplicativo RAG "Converse com o seu Código" usando o Qwen3-Coder:
68,68K
Top
Classificação
Favoritos