热门话题
#
Bonk 生态迷因币展现强韧势头
#
有消息称 Pump.fun 计划 40 亿估值发币,引发市场猜测
#
Solana 新代币发射平台 Boop.Fun 风头正劲
最近在试用 Particle News @particle_news,重新思考了 LLM 在交易信息流场景里的价值和边界。Particle是一款非常精致的 AI 新闻产品,在信息广泛&中立性、内容流动性(liquid content)可读可听方面都做得极好。但这种精密打磨的体验和交易型信息系统之间有着结构性分歧,先写出来看能不能帮到也在做类似产品的同僚。
1. 信息不是抓取整合,而是聚类理解。
创始人Sara Beykpour 在访谈中反复强调的“story”概念我非常认同,这也是他们的核心亮点之一,强调信息并不是被“抓取并整合”的,而是被“聚类并理解”的。 如果信息只是无脑抓取和串联,那下游的所有排序、可信度评估都会变得模糊。尤其是交易类场景下的信息密度极高、实时性要求强、上下文跨度大,就更不能让大模型“自由理解”,而是要先由 AI 进行一轮结构化的语义聚类,把碎片信息组织成若干个紧凑、有内在因果线索的“事件簇”(stories)。
2. LLM 的优势与盲区:中立性、因果性 vs 预测力
- LLM 在moderation 上的风格控制/观点情绪中立上优势明显。但经由聚合+许多post-eval之后会牺牲时效性和结构张力。
- LLM 擅长做因果链判断,cause & effect分析,在一些bullet point中间去提炼非常nuanced的事物之间是否有关联性,尤其是“影响路径”、“上下游反应”等方面,会成为交易重要的逻辑之一。
- LLM并不擅长预测。作为统计语言模型,天然地会放大“主流意见”或“高频信号”。我们自己的观测是AI总是“过度乐观”,而 Sara 的判断则是:“如果很多人说 A 队会赢,模型就会以为 A 队赢了。”预测是 LLM 的大盲区,不应把它当作 signal engine 使用。反观类似同花顺问财,或者Rockflow的Bobby类开放式问答+预测的chatbot产品,是否能突破这个限制还是被trapped还有待观察。
3. 替代预测的策略:因果链 + 结构性时间轴
如果预测是LLM目前的硬伤,在不做预测且对时效性要求高的情况下,保留类似tradingview calendar和cause & effect板块会非常有用。推断某件事是否与另一件事相关,以及事件发展的相对顺序和触发因子。这种判断也足以为交易系统建立信息偏差模型,不需真正的 forecasting。
4. evaluation工作:
evaluation绝对是非常精细化&具有指向性的工作。比如克制地限制表达方式:每句话只能有一个观点,避免从句;比如“暗示”=“观点”,避免模糊结论;比如summary不能超过 X 字,一旦有主观色彩或“intentional expression”,就被当成错误。当然针对每个单元内容的“criticial”程度也有量化,为了更好地让下面要讲的pipeline自动运转。 整个 pipeline 是 async 的、可重复执行的:只要 eval 检查不过,就自动重启任务。所以模型每次只需完成一个小任务,例如判断事件是否发生,或者输出一个不含暗示性的 summary,而不是在一轮中完成全部推理和表达。这种做法的底层逻辑是把生成拆成多个可检验、可复用的小任务,每一个都可以被 reality-check,最大程度避免幻觉和倾向性。
5. 从 prototype 到高质量AI内容的完整生产线
Sara 分享他们做moderation系统的完整的流程:首先在测试环境中写一个 prompt,设置五个问题,然后越狱or打破结构or忘记context,一直到模型表现出稳定且质量不错的行为为止,prompt 可以长达几百行。
当 prompt 初步稳定后,就交给技术团队,把 prompt 模板拆成组件并放入 async pipeline 里,跑所有其他问题做 offline analysis。最后再开始 live question 测试,让系统在真实场景下运行,这时才正式加入 evaluation。
总结来说如果你想构建一个AI辅助的信息聚合&推送系统,不要幻想大模型直接给出 alpha;所有用AI做预测告诉你购买哪个标的的都是诈骗。真正的 know-how 是结构、流程和校验系统 ,让LLM在架构下变得可靠。
3.39K
热门
排行
收藏