Недавно я начал использовать Particle News @particle_news и переосмыслил ценность и границы LLM в контексте потоков торговой информации. Particle — это очень изысканный продукт AI новостей, который отлично справляется с широким охватом информации и нейтральностью, а также с читабельностью и аудиовоспринимаемостью контента (жидкий контент). Однако такая тщательно отшлифованная работа имеет структурные расхождения с торговыми информационными системами, и я пишу это, чтобы, возможно, помочь коллегам, работающим над аналогичными продуктами. 1. Информация не просто собирается и интегрируется, а кластеризуется и понимается. Концепция "истории", которую основатель Сара Бейкпур постоянно подчеркивает в интервью, мне очень близка, и это одна из их ключевых особенностей, акцентирующая внимание на том, что информация не "собирается и интегрируется", а "кластеризуется и понимается". Если информация просто бездумно собирается и связывается, то все последующие сортировки и оценки достоверности становятся неясными. Особенно в торговых сценариях, где плотность информации очень высока, требования к актуальности сильны, а контекст охватывает большие промежутки, нельзя позволять большой модели "свободно понимать"; вместо этого AI должен сначала провести структурированную семантическую кластеризацию, организовав фрагменты информации в несколько компактных "событийных кластеров" (историй) с внутренними причинно-следственными связями. 2. Преимущества и слепые зоны LLM: нейтральность, причинность против предсказательной силы - LLM явно преуспевает в контроле стиля/нейтральности мнений и эмоций. Однако через агрегацию и множество пост-оценок будет жертвоваться актуальность и структурное напряжение. - LLM хорошо разбирается в причинно-следственных связях, анализе причин и следствий, извлекая очень тонкие связи между вещами в некоторых пунктах, особенно в аспектах "путей влияния", "реакций вверх и вниз по цепочке" и т.д., что станет важной логикой для торговли. - LLM не умеет предсказывать. Как статистическая языковая модель, она естественным образом усиливает "мейнстримные мнения" или "высокочастотные сигналы". Наши собственные наблюдения показывают, что AI всегда "чрезмерно оптимистичен", а суждение Сары заключается в том, что: "Если многие говорят, что команда A выиграет, модель будет думать, что команда A выиграла." Прогнозирование — это большая слепая зона LLM, и не следует использовать ее как сигнал-генератор. В то же время, такие продукты, как Tonghuashun Wencai или чат-боты, подобные Bobby от Rockflow, которые предлагают открытые вопросы и прогнозы, еще предстоит выяснить, смогут ли они преодолеть это ограничение или останутся в ловушке. 3. Стратегия, заменяющая прогнозирование: причинно-следственная цепочка + структурированная временная шкала Если прогнозирование — это текущая слабость LLM, то в условиях, когда прогнозирование не производится и требования к актуальности высоки, сохранение таких элементов, как календарь tradingview и раздел причин и следствий, будет очень полезным. Выявление того, связано ли одно событие с другим, а также относительный порядок развития событий и факторы, их вызывающие. Эта оценка также достаточно для создания модели информационного отклонения для торговой системы, без необходимости в реальном прогнозировании. 4. Работа по оценке: Оценка абсолютно является очень детализированной и целенаправленной работой. Например, сдерживать выражение: в каждом предложении может быть только одна точка зрения, избегая придаточных предложений; например, "намек" = "точка зрения", избегая неясных выводов; например, резюме не должно превышать X слов, и как только появляется субъективный оттенок или "намеренное выражение", это считается ошибкой. Конечно, для каждой единицы содержания также есть количественная оценка "критичности", чтобы лучше автоматизировать следующий описанный процесс. Весь процесс является асинхронным и может быть повторно выполнен: как только проверка оценки не проходит, задача автоматически перезапускается. Таким образом, модель каждый раз должна выполнять небольшую задачу, например, определить, произошло ли событие, или выдать резюме без намеков, а не завершать все рассуждения и выражения за один раз. Эта логика заключается в том, чтобы разбить генерацию на несколько проверяемых и повторно используемых небольших задач, каждая из которых может быть проверена на соответствие реальности, максимально избегая иллюзий и предвзятости. 5. Полная производственная линия от прототипа до качественного AI контента Сара поделилась полным процессом создания системы модерации: сначала в тестовой среде пишется промпт, задаются пять вопросов, затем происходит взлом или разрушение структуры или забывание контекста, пока модель не начнет демонстрировать стабильное и качественное поведение, промпт может составлять несколько сотен строк. Когда промпт первоначально стабилен, он передается технической команде, которая разбивает шаблон промпта на компоненты и помещает их в асинхронный процесс, выполняя все остальные вопросы для оффлайн-анализа. Наконец, начинается тестирование живых вопросов, позволяя системе работать в реальных условиях, и только тогда начинается оценка. В заключение, если вы хотите создать систему агрегации и доставки информации с помощью AI, не стоит надеяться, что большая модель сразу даст вам альфа; все, что использует AI для прогнозирования, чтобы сказать вам, какой актив покупать, — это мошенничество. Настоящее ноу-хау заключается в структуре, процессе и системе проверки, позволяя LLM стать надежным в рамках архитектуры.
3,51K