Nedávno, během zkušebního provozu Particle News, @particle_news přehodnocování hodnoty a hranic LLM ve scénáři toku informací o transakcích. Particle je velmi sofistikovaný zpravodajský produkt s umělou inteligencí, který odvádí vynikající práci z hlediska šíře informací a neutrality a čitelnosti a slyšitelnosti tekutého obsahu. Existuje však strukturální rozdíl mezi touto precizně vybroušenou zkušeností a transakčním informačním systémem a ten se nejprve zapíše, aby se zjistilo, zda může pomoci kolegům, kteří také dělají podobné produkty. 1. Informace nejsou zachyceny a integrovány, ale shlukové porozumění. Naprosto souhlasím s konceptem "příběhu", který v rozhovorech opakovaně zdůrazňovala zakladatelka Sara Beykpour a který je také jedním z jejich hlavních bodů, když zdůrazňuje, že informace nejsou "uchopeny a integrovány", ale "shlukovány a pochopeny". Pokud jsou informace jen bezmyšlenkovitým škrábáním a zřetězováním, pak bude veškeré řazení a hodnocení důvěryhodnosti rozmazané. Zejména v transakčních scénářích, kde je hustota informací extrémně vysoká, požadavky na reálný čas jsou silné a kontextové rozpětí je velké, není možné nechat velký model "svobodně porozumět", ale musí nejprve provést kolo strukturovaného sémantického shlukování pomocí umělé inteligence, aby uspořádala roztříštěné informace do několika kompaktních "shluků událostí" (příběhů) s vnitřními kauzálními vodítky. 2. Silné stránky a slepá místa LLM: Neutralita, kauzalita vs. prediktivní síla - LLM mají významné výhody v ovládání stylu/názorové neutralitě s mírou. Po polymeraci + mnoha post-evalech je však obětována aktuálnost a strukturální napětí. - LLM jsou dobří v posuzování příčinných řetězců, analýze příčin a následků a v některých odrážkách, které zpřesňují, zda existuje korelace mezi velmi jemnými věcmi, zejména "cestou vlivu" a "reakcemi proti proudu a po proudu", což se stane jednou z důležitých logik transakcí. - LLM nejsou dobří v předvídání. Jako statistický jazykový model přirozeně zesiluje "mainstreamové názory" nebo "vysokofrekvenční signály". Naše vlastní pozorování je, že umělá inteligence je vždy "příliš optimistická", a Sařin úsudek zní: "Pokud mnoho lidí říká, že vyhraje tým A, model si bude myslet, že vyhrál tým A." "Predikce je pro LLM velkou slepou skvrnou a neměla by být používána jako signální motor. Na druhou stranu se teprve uvidí, zda produkty chatbotů jako Flush nebo otevřená predikce Q&A + ve stylu Bobbyho od Rockflow dokážou toto omezení prolomit, nebo se dostat do pasti. 3. Strategie pro alternativní predikce: kauzální řetězec + strukturální časová osa Pokud jsou předpovědi aktuální chybou v LLM, je užitečné ponechat sekce jako Kalendář TradingView a Příčina a následek, když se předpovědi nedělají a včasnost je vysoká. Odvození, zda jedna věc souvisí s druhou a relativní pořadí a spouštěče vývoje událostí. Tento úsudek také stačí k vytvoření modelu informačního zkreslení pro obchodní systém bez skutečných předpovědí. 4. Hodnotící práce: Hodnocení je rozhodně velmi rafinovaná a směrová práce. Například zdrženlivost omezuje vyjadřování: každá věta může mít pouze jeden úhel pohledu, vyhnout se větám; Například "nápověda" = "názor", abychom se vyhnuli vágním závěrům; Například shrnutí nemůže překročit slovo X, a jakmile se objeví subjektivní barva nebo "záměrné vyjádření", je to považováno za chybu. Samozřejmě je také kvantifikována "kritická" míra obsahu každé jednotky, aby se zlepšil automatický běh pipeline. Celý kanál je asynchronní a opakovatelný: pokud kontroly eval selžou, úloha se automaticky restartuje. Proto model potřebuje dokončit pouze malou úlohu najednou, jako je určení, zda došlo k události, nebo výstup neimplicitního souhrnu, spíše než dokončení všech odvození a výrazů v jednom kole. Základní logikou tohoto přístupu je rozdělit generaci na několik ověřitelných a opakovaně použitelných malých úkolů, z nichž každý lze reálně zkontrolovat, aby se v co největší míře předešlo halucinacím a tendencím. 5. Kompletní výrobní linka od prototypu až po vysoce kvalitní obsah AI Sara sdílí celý proces vytváření systému moderování: nejprve napište výzvu v testovacím prostředí, nastavte pět otázek, poté útěk z vězení nebo prolomte strukturu nebo zapomeňte na kontext, dokud model nevykazuje stabilní a kvalitní chování, výzva může být dlouhá stovky řádků. Když je výzva zpočátku stabilní, je předána technickému týmu, šablona výzvy je rozebrána na komponenty a vložena do asynchronního kanálu a všechny ostatní otázky jsou spuštěny pro offline analýzu. Nakonec spusťte test živých otázek, aby se systém spustil v reálných scénářích, a poté se oficiálně připojte k hodnocení. Stručně řečeno, pokud chcete vytvořit systém agregace informací a push s pomocí AI, nefantazírujte o velkém modelu, který přímo poskytuje alfu; Všechny předpovědi, které využívají umělou inteligenci k tomu, aby vám řekly, který cíl koupit, jsou podvody. Skutečným know-how je struktura, proces a verifikační systém, díky kterému jsou LLM spolehlivé v rámci architektury.
3,39K