Recentemente ho provato Particle News @particle_news e ho riconsiderato il valore e i confini dei LLM nel contesto del flusso di informazioni di trading. Particle è un prodotto di notizie AI molto raffinato, che eccelle nella neutralità delle informazioni e nella fluidità dei contenuti (liquid content), sia leggibili che ascoltabili. Tuttavia, questa esperienza finemente lavorata presenta una divergenza strutturale rispetto ai sistemi informativi di trading; scrivo questo nella speranza che possa essere utile anche ai colleghi che stanno sviluppando prodotti simili. 1. L'informazione non è raccolta e integrata, ma compresa e raggruppata. Il concetto di "story" che il fondatore Sara Beykpour sottolinea ripetutamente nelle interviste è qualcosa con cui concordo pienamente; è uno dei loro punti di forza principali, enfatizzando che le informazioni non sono "raccolte e integrate", ma "raggruppate e comprese". Se le informazioni vengono semplicemente raccolte e collegate senza criterio, tutte le valutazioni di ordinamento e affidabilità downstream diventano sfocate. Soprattutto nel contesto del trading, dove la densità informativa è estremamente alta, la richiesta di real-time è forte e l'ampiezza del contesto è grande, non possiamo permettere ai grandi modelli di "comprendere liberamente"; piuttosto, l'AI deve prima eseguire un ciclo di clustering semantico strutturato, organizzando le informazioni frammentate in diversi "cluster di eventi" (stories) compatti e con indizi causali interni. 2. Vantaggi e limiti dei LLM: neutralità, causalità vs capacità predittiva - I LLM mostrano un chiaro vantaggio nel controllo dello stile/moderazione e nella neutralità delle opinioni. Tuttavia, attraverso l'aggregazione e molte valutazioni post, si sacrifica l'efficacia temporale e la tensione strutturale. - I LLM sono bravi a fare giudizi sulle catene causali, analisi causa ed effetto, estraendo in alcuni punti molto sfumati se ci siano correlazioni, specialmente in termini di "percorsi di influenza" e "reazioni upstream e downstream", che diventeranno una logica importante per il trading. - I LLM non sono bravi a fare previsioni. In quanto modelli di linguaggio statistico, tendono a amplificare "opinioni mainstream" o "segnali ad alta frequenza". La nostra osservazione è che l'AI è sempre "eccessivamente ottimista", mentre il giudizio di Sara è: "Se molte persone dicono che la squadra A vincerà, il modello penserà che la squadra A ha vinto." La previsione è un grande limite per i LLM e non dovrebbe essere utilizzata come motore di segnale. D'altra parte, è interessante osservare se prodotti come Tonghuashun Wencai o chatbot di tipo Bobby di Rockflow, che combinano domande aperte e previsioni, possano superare questo limite o siano intrappolati. 3. Strategie alternative alla previsione: catena causale + asse temporale strutturato Se la previsione è il punto debole attuale dei LLM, mantenere sezioni simili al calendario di tradingview e ai segmenti causa ed effetto sarà molto utile in assenza di previsioni e con elevate richieste di tempestività. Inferire se un evento è correlato a un altro, così come l'ordine relativo degli eventi e i fattori scatenanti. Questo tipo di giudizio è sufficiente per costruire un modello di deviazione informativa per i sistemi di trading, senza necessità di vere previsioni. 4. Lavoro di valutazione: La valutazione è assolutamente un lavoro molto dettagliato e mirato. Ad esempio, limitare in modo controllato le modalità di espressione: ogni frase può contenere solo un'opinione, evitando le subordinate; ad esempio, "suggerire" = "opinione", evitando conclusioni ambigue; ad esempio, il riassunto non può superare X parole; una volta che ci sono sfumature soggettive o "espressioni intenzionali", vengono considerate errori. Naturalmente, il grado di "criticità" di ciascun contenuto è quantificato, per facilitare il funzionamento automatico del pipeline che verrà descritto. L'intero pipeline è asincrono e ripetibile: se la valutazione non supera il controllo, il compito viene riavviato automaticamente. Pertanto, il modello deve completare solo un piccolo compito ogni volta, come determinare se un evento è accaduto o produrre un riassunto privo di suggerimenti, piuttosto che completare tutto il ragionamento e l'espressione in un'unica fase. Questa logica di base è quella di suddividere la generazione in più compiti verificabili e riutilizzabili, ognuno dei quali può essere controllato dalla realtà, evitando al massimo illusioni e tendenze. 5. Dalla prototipazione a una linea di produzione di contenuti AI di alta qualità Sara ha condiviso il processo completo per realizzare il sistema di moderazione: prima si scrive un prompt in un ambiente di test, impostando cinque domande, poi si cerca di eludere o rompere la struttura o dimenticare il contesto, fino a quando il modello non mostra un comportamento stabile e di buona qualità, il prompt può arrivare a centinaia di righe. Quando il prompt è inizialmente stabile, viene passato al team tecnico, che smonta il template del prompt in componenti e lo inserisce nel pipeline asincrono, eseguendo tutte le altre domande per un'analisi offline. Infine, si inizia il test delle domande live, permettendo al sistema di funzionare in scenari reali, momento in cui viene ufficialmente aggiunta la valutazione. In sintesi, se desideri costruire un sistema di aggregazione e invio di informazioni assistito da AI, non illuderti che un grande modello possa fornirti direttamente un alpha; tutti coloro che utilizzano l'AI per prevedere quale asset acquistare sono truffatori. Il vero know-how è nella struttura, nei processi e nei sistemi di verifica, rendendo i LLM affidabili all'interno di un'architettura.
3,39K