Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Costruiamo un'app RAG "Chatta con il tuo Codice" utilizzando Qwen3-Coder:
Prima di iniziare, dai un'occhiata a cosa stiamo per creare!
Stack tecnologico:
- @Llama_Index per l'orchestrazione
- @Milvusio per ospitare un vectorDB
- @CleanlabAI codex per convalidare la risposta
- @OpenRouterAI per accedere a @Alibaba_Qwen 3 Coder.
Andiamo! 🚀
Il diagramma architetturale presentato di seguito illustra alcuni dei componenti chiave e come interagiscono tra loro!
Seguiranno descrizioni dettagliate e codice per ciascun componente:
1️⃣ & 2️⃣ : Caricamento della base di conoscenza
Una base di conoscenza è una raccolta di informazioni pertinenti e aggiornate che funge da fondamento per RAG. Nel nostro caso è un repository GitHub!
Ecco come suddividiamo e analizziamo il nostro codice utilizzando il parser gerarchico di @Llama_Index:

3️⃣ Il modello di embedding
L'embedding è una rappresentazione significativa del testo sotto forma di numeri.
Il modello di embedding è responsabile della creazione di embedding per i frammenti di documento e le query degli utenti.
Ecco come carichiamo il nostro modello di embedding:

4️⃣ Indicizzazione e archiviazione
Le embedding create dal modello di embedding sono memorizzate in un archivio vettoriale che offre un recupero rapido e una ricerca di similarità creando un indice sui nostri dati.
Utilizzeremo un database vettoriale self-hosted di @Milvusio:

5️⃣ Creazione di un modello di prompt
Un modello di prompt personalizzato viene utilizzato per affinare la risposta da LLM e includere anche il contesto:

6️⃣ Impostazione di un motore di query
Il motore di query prende una stringa di query per utilizzarla per recuperare il contesto rilevante e li combina utilizzando il modello di prompt prima di inviarlo al LLM che genera la risposta finale!
L'LLM utilizzato qui è il più recente Qwen3-Coder!

7️⃣ L'interfaccia Chat
Creiamo un'interfaccia utente utilizzando Streamlit per fornire un'interfaccia chat per la nostra applicazione RAG.
Il codice per questo e tutto ciò di cui abbiamo discusso finora è condiviso nel tweet successivo!
Dai un'occhiata a questo👇

Bonus!
Utilizzeremo il codex AI di @CleanlabAI, un modo intelligente per convalidare e migliorare le tue risposte.
Abbiamo utilizzato lo stesso per ottenere il punteggio di affidabilità.
Si integra perfettamente con qualsiasi applicazione di chat agentica o AI che stai sviluppando.
Dai un'occhiata a questo👇

Puoi trovare tutto il codice in questo repository GitHub:
(non dimenticare di mettere una stella 🌟)
Infine, vi lascio con il diagramma architetturale dell'app che abbiamo costruito.
Spero che vi sia piaciuto questo tutorial. Rimanete sintonizzati per ulteriori aggiornamenti! 🥂
Se l'hai trovato interessante, condividilo nuovamente con la tua rete.
Trovami → @akshay_pachaar ✔️
Per ulteriori approfondimenti e tutorial su LLM, agenti di intelligenza artificiale e apprendimento automatico!

25 lug, 01:06
Costruiamo un'app RAG "Chatta con il tuo Codice" utilizzando Qwen3-Coder:
68,68K
Principali
Ranking
Preferiti