Recent, în timpul procesului Particle News, @particle_news regândește valoarea și limitele LLM-urilor în scenariul fluxului de informații despre tranzacții. Particle este un produs de știri AI foarte sofisticat, care face o treabă excelentă în ceea ce privește lățimea și neutralitatea informațiilor, lizibilitatea și audibilitatea conținutului lichid. Cu toate acestea, există o diferență structurală între această experiență șlefuită cu precizie și sistemul de informații tranzacționale și este scrisă mai întâi pentru a vedea dacă poate ajuta colegii care fac și ei produse similare. 1. Informațiile nu sunt capturate și integrate, ci înțelegerea grupată. Sunt de acord cu conceptul de "poveste" subliniat în mod repetat de fondatoarea Sara Beykpour în interviuri, care este, de asemenea, unul dintre punctele lor de atracție, subliniind că informațiile nu sunt "capturate și integrate", ci "grupate și înțelese". Dacă informațiile sunt doar răzuire și concatenare fără creier, atunci toate ordonările din aval și evaluarea credibilității vor fi neclare. În special, în scenariile tranzacționale, unde densitatea informațiilor este extrem de mare, cerințele în timp real sunt puternice și intervalul de context este mare, este imposibil să lași modelul mare "să înțeleagă liber", dar trebuie mai întâi să efectuezi o rundă de clusterizare semantică structurată de către AI pentru a organiza informațiile fragmentate în mai multe "clustere de evenimente" compacte (povești) cu indicii cauzale interne. 2. Punctele forte și punctele oarbe ale LLM: neutralitate, cauzalitate vs. putere predictivă - LLM-urile au avantaje semnificative în controlul stilului/neutralitatea emoțiilor de opinie cu moderație. Cu toate acestea, după polimerizare + multe post-evaluări, oportunitatea și tensiunea structurală sunt sacrificate. - LLM-urile sunt bune la judecata cauzală a lanțului, analiza cauzei și efectului și unele puncte pentru a rafina dacă există o corelație între lucruri foarte nuanțate, în special "calea de influență" și "reacțiile din amonte și din aval", care vor deveni una dintre logicile importante ale tranzacțiilor. - LLM-urile nu sunt bune la prezicere. Ca model de limbaj statistic, amplifică în mod natural "opiniile mainstream" sau "semnalele de înaltă frecvență". Propria noastră observație este că AI este întotdeauna "prea optimistă", iar judecata Sarei este: "Dacă mulți oameni spun că echipa A va câștiga, modelul va crede că echipa A a câștigat". "Predicția este un mare punct mort pentru LLM-uri și nu ar trebui să fie folosită ca motor de semnal. Pe de altă parte, rămâne de văzut dacă produsele de chatbot precum Flush sau predicția de întrebări și răspunsuri deschise de tip Bobby de la Rockflow pot depăși această limitare sau pot fi prinse. 3. Strategii pentru predicții alternative: lanț cauzal + cronologie structurală Dacă predicțiile sunt un defect actual în LLM-uri, este util să păstrați secțiuni precum Calendarul TradingView și Cauză și efect atunci când prognoza nu este făcută și actualitatea este ridicată. A deduce dacă un lucru este legat de altul și ordinea relativă și declanșatorii dezvoltării evenimentelor. Această judecată este, de asemenea, suficientă pentru a stabili un model de părtinire informațională pentru sistemul de tranzacționare fără prognoze reale. 4. Activitatea de evaluare: Evaluarea este cu siguranță o muncă foarte rafinată și direcțională. De exemplu, reținerea limitează exprimarea: fiecare propoziție poate avea un singur punct de vedere, evitați propozițiile; De exemplu, "indiciu" = "opinie" pentru a evita concluziile vagi; De exemplu, rezumatul nu poate depăși cuvântul X și, odată ce există o culoare subiectivă sau o "expresie intenționată", este considerat o eroare. Desigur, gradul "critic" al fiecărei unități de conținut este, de asemenea, cuantificat, pentru a face mai bine conducta să ruleze automat. Întreaga conductă este asincronă și repetabilă: atâta timp cât verificările de evaluare eșuează, sarcina este repornită automat. Prin urmare, modelul trebuie să finalizeze doar o sarcină mică la un moment dat, cum ar fi determinarea dacă a avut loc un eveniment sau generarea unui rezumat neimplicit, mai degrabă decât să completeze toate inferențele și expresiile într-o singură rundă. Logica de bază a acestei abordări este de a împărți generația în mai multe sarcini mici verificabile și reutilizabile, fiecare dintre ele putând fi verificată real pentru a evita halucinațiile și tendințele în cea mai mare măsură. 5. Linie de producție completă de la prototip la conținut AI de înaltă calitate Sara împărtășește procesul complet de realizare a unui sistem de moderare: mai întâi scrieți un prompt într-un mediu de testare, setați cinci întrebări, apoi faceți jailbreak sau rupeți structura sau uitați contextul, până când modelul arată un comportament stabil și de bună calitate, promptul poate avea sute de rânduri. Când promptul este inițial stabil, este predat echipei tehnice, șablonul de prompt este dezasamblat în componente și pus în conducta asincronă, iar toate celelalte întrebări sunt rulate pentru analiză offline. În cele din urmă, începeți testul de întrebări live pentru a rula sistemul în scenarii reale, apoi alăturați-vă oficial evaluării. Pe scurt, dacă doriți să construiți un sistem de agregare și împingere a informațiilor asistat de inteligență artificială, nu fantezați că modelul mare oferă direct alfa; Toate predicțiile care folosesc AI pentru a vă spune ce țintă să cumpărați sunt escrocherii. Adevăratul know-how este structura, procesul și sistemul de verificare care fac LLM-urile fiabile în cadrul arhitecturii.
3,62K