Tópicos em alta
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Vamos criar um aplicativo RAG "Converse com seu código" usando o Qwen3-Coder:
Antes de começarmos, dê uma olhada no que estamos prestes a criar!
Pilha de tecnologia:
- @Llama_Index para orquestração
- @Milvusio para auto-hospedar um vectorDB
- @CleanlabAI códice para validar a resposta
- @OpenRouterAI acessar o @Alibaba_Qwen 3 Coder.
Vamos! 🚀
O diagrama de arquitetura apresentado abaixo ilustra alguns dos principais componentes e como eles interagem uns com os outros!
Será seguido por descrições detalhadas e código para cada componente:
1️⃣ & 2️⃣ : Carregando a base de conhecimento
Uma base de conhecimento é uma coleção de informações relevantes e atualizadas que servem como base para o RAG. No nosso caso, é um repositório GitHub!
Veja como dividimos e analisamos nossa base de código usando o analisador de código hierárquico do @Llama_Index:

3️⃣ O modelo de incorporação
A incorporação é uma representação significativa do texto na forma de números.
O modelo de incorporação é responsável por criar incorporações para as partes do documento e consultas do usuário.
Veja como carregamos nosso modelo de incorporação:

4️⃣ Indexação e armazenamento
As incorporações criadas pelo modelo de incorporação são armazenadas em um repositório de vetores que oferece recuperação rápida e pesquisa de similaridade, criando um índice sobre nossos dados.
Usaremos um banco de dados vetorial @Milvusio auto-hospedado:

5️⃣ Criando um modelo de prompt
Um modelo de prompt personalizado é usado para refinar a resposta do LLM e incluir o contexto também:

6️⃣ Configurando um mecanismo de consulta
O mecanismo de consulta usa a string de consulta para usá-la para buscar o contexto relevante e os combina usando o modelo de prompt antes de enviá-lo ao LLM que gera a resposta final!
O LLM usado aqui é o mais recente Qwen3-Coder!

7️⃣ A interface do bate-papo
Criamos uma interface do usuário usando o Streamlit para fornecer uma interface de bate-papo para nosso aplicativo RAG.
O código para isso e tudo o que discutimos até agora é compartilhado no próximo tweet!
Confira isso👇

Bônus!
Usaremos o códice de IA do @CleanlabAI, uma maneira inteligente de validar e melhorar suas respostas.
Usamos o mesmo para obter a pontuação de confiabilidade.
Integra-se perfeitamente a qualquer aplicativo de bate-papo agencial ou de IA que você esteja desenvolvendo.
Confira isso👇

Você pode encontrar todo o código neste repositório do GitHub:
(não se esqueça de estrelar 🌟)
Por fim, vou deixar você com o diagrama de arquitetura do aplicativo que criamos.
Espero que tenham gostado deste tutorial. Fique ligado para mais! 🥂
Se você achou perspicaz, compartilhe novamente com sua rede.
Encontre-me → @akshay_pachaar ✔️
Para obter mais insights e tutoriais sobre LLMs, agentes de IA e aprendizado de máquina!

25 de jul., 01:06
Vamos criar um aplicativo RAG "Converse com seu código" usando o Qwen3-Coder:
68,7K
Melhores
Classificação
Favoritos