熱門話題
#
Bonk 生態迷因幣展現強韌勢頭
#
有消息稱 Pump.fun 計劃 40 億估值發幣,引發市場猜測
#
Solana 新代幣發射平臺 Boop.Fun 風頭正勁
最近在試用 Particle News @particle_news,重新思考了 LLM 在交易信息流場景裡的價值和邊界。Particle是一款非常精緻的 AI 新聞產品,在信息廣泛&中立性、內容流動性(liquid content)可讀可聽方面都做得極好。但這種精密打磨的體驗和交易型信息系統之間有著結構性分歧,先寫出來看能不能幫到也在做類似產品的同僚。
1. 信息不是抓取整合,而是聚類理解。
創始人Sara Beykpour 在訪談中反覆強調的“story”概念我非常認同,這也是他們的核心亮點之一,強調信息並不是被“抓取並整合”的,而是被“聚類並理解”的。 如果信息只是無腦抓取和串聯,那下游的所有排序、可信度評估都會變得模糊。尤其是交易類場景下的信息密度極高、實時性要求強、上下文跨度大,就更不能讓大模型“自由理解”,而是要先由 AI 進行一輪結構化的語義聚類,把碎片信息組織成若干個緊湊、有內在因果線索的“事件簇”(stories)。
2. LLM 的優勢與盲區:中立性、因果性 vs 預測力
- LLM 在moderation 上的風格控制/觀點情緒中立上優勢明顯。但經由聚合+許多post-eval之後會犧牲時效性和結構張力。
- LLM 擅長做因果鏈判斷,cause & effect分析,在一些bullet point中間去提煉非常nuanced的事物之間是否有關聯性,尤其是“影響路徑”、“上下游反應”等方面,會成為交易重要的邏輯之一。
- LLM並不擅長預測。作為統計語言模型,天然地會放大“主流意見”或“高頻信號”。我們自己的觀測是AI總是“過度樂觀”,而 Sara 的判斷則是:“如果很多人說 A 隊會贏,模型就會以為 A 隊贏了。”預測是 LLM 的大盲區,不應把它當作 signal engine 使用。反觀類似同花順問財,或者Rockflow的Bobby類開放式問答+預測的chatbot產品,是否能突破這個限制還是被trapped還有待觀察。
3. 替代預測的策略:因果鏈 + 結構性時間軸
如果預測是LLM目前的硬傷,在不做預測且對時效性要求高的情況下,保留類似tradingview calendar和cause & effect板塊會非常有用。推斷某件事是否與另一件事相關,以及事件發展的相對順序和觸發因子。這種判斷也足以為交易系統建立信息偏差模型,不需真正的 forecasting。
4. evaluation工作:
evaluation絕對是非常精細化&具有指向性的工作。比如剋制地限制表達方式:每句話只能有一個觀點,避免從句;比如“暗示”=“觀點”,避免模糊結論;比如summary不能超過 X 字,一旦有主觀色彩或“intentional expression”,就被當成錯誤。當然針對每個單元內容的“criticial”程度也有量化,為了更好地讓下面要講的pipeline自動運轉。 整個 pipeline 是 async 的、可重複執行的:只要 eval 檢查不過,就自動重啟任務。所以模型每次只需完成一個小任務,例如判斷事件是否發生,或者輸出一個不含暗示性的 summary,而不是在一輪中完成全部推理和表達。這種做法的底層邏輯是把生成拆成多個可檢驗、可複用的小任務,每一個都可以被 reality-check,最大程度避免幻覺和傾向性。
5. 從 prototype 到高質量AI內容的完整生產線
Sara 分享他們做moderation系統的完整的流程:首先在測試環境中寫一個 prompt,設置五個問題,然後越獄or打破結構or忘記context,一直到模型表現出穩定且質量不錯的行為為止,prompt 可以長達幾百行。
當 prompt 初步穩定後,就交給技術團隊,把 prompt 模板拆成組件並放入 async pipeline 裡,跑所有其他問題做 offline analysis。最後再開始 live question 測試,讓系統在真實場景下運行,這時才正式加入 evaluation。
總結來說如果你想構建一個AI輔助的信息聚合&推送系統,不要幻想大模型直接給出 alpha;所有用AI做預測告訴你購買哪個標的的都是詐騙。真正的 know-how 是結構、流程和校驗系統 ,讓LLM在架構下變得可靠。
3.4K
熱門
排行
收藏