Rubriques tendance
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Construisons une application RAG "Discuter avec votre Code" en utilisant Qwen3-Coder :
Avant de commencer, jetez un œil à ce que nous allons créer !
Technologies utilisées :
- @Llama_Index pour l'orchestration
- @Milvusio pour auto-héberger une base de données vectorielle
- @CleanlabAI codex pour valider la réponse
- @OpenRouterAI pour accéder à @Alibaba_Qwen 3 Coder.
Allons-y ! 🚀
Le diagramme d'architecture présenté ci-dessous illustre certains des composants clés et comment ils interagissent les uns avec les autres !
Il sera suivi de descriptions détaillées et de code pour chaque composant :
1️⃣ & 2️⃣ : Chargement de la base de connaissances
Une base de connaissances est une collection d'informations pertinentes et à jour qui sert de fondation pour RAG. Dans notre cas, c'est un dépôt GitHub !
Voici comment nous segmentons & analysons notre code source en utilisant le parseur de code hiérarchique de @Llama_Index :

3️⃣ Le modèle d'embedding
L'embedding est une représentation significative du texte sous forme de nombres.
Le modèle d'embedding est responsable de la création d'embeddings pour les morceaux de document et les requêtes des utilisateurs.
Voici comment nous chargeons notre modèle d'embedding :

4️⃣ Indexation et stockage
Les embeddings créés par le modèle d'embedding sont stockés dans un magasin de vecteurs qui offre une récupération rapide et une recherche de similarité en créant un index sur nos données.
Nous utiliserons une base de données vectorielle auto-hébergée @Milvusio :

5️⃣ Création d'un modèle de prompt
Un modèle de prompt personnalisé est utilisé pour affiner la réponse du LLM et inclure le contexte également :

6️⃣ Configuration d'un moteur de requête
Le moteur de requête prend une chaîne de requête pour l'utiliser afin de récupérer le contexte pertinent et les combine en utilisant le modèle de prompt avant de l'envoyer au LLM qui génère la réponse finale !
Le LLM utilisé ici est le dernier Qwen3-Coder !

7️⃣ L'interface de chat
Nous créons une interface utilisateur avec Streamlit pour fournir une interface de chat pour notre application RAG.
Le code pour cela et tout ce que nous avons discuté jusqu'à présent est partagé dans le tweet suivant !
Regardez ça👇

Bonus !
Nous utiliserons le codex AI de @CleanlabAI, une manière intelligente de valider et d'améliorer vos réponses.
Nous avons utilisé le même pour obtenir le score de fiabilité.
S'intègre parfaitement à toute application de chat agentique ou AI que vous développez.
Découvrez cela 👇

Vous pouvez trouver tout le code dans ce dépôt GitHub :
(n'oubliez pas de mettre une étoile 🌟)
Enfin, je vous laisse avec le diagramme d'architecture de l'application que nous avons construite.
J'espère que vous avez apprécié ce tutoriel. Restez à l'écoute pour plus ! 🥂
Si vous l’avez trouvé perspicace, partagez-le à nouveau avec votre réseau.
Trouvez-moi → @akshay_pachaar ✔️
Pour plus d’informations et de tutoriels sur les LLM, les agents d’IA et l’apprentissage automatique !

25 juil., 01:06
Construisons une application RAG "Discuter avec votre Code" en utilisant Qwen3-Coder :
68,7K
Meilleurs
Classement
Favoris