最近、Particle News の試行中に、@particle_newsトランザクション情報フロー シナリオにおける LLM の価値と境界を再考しています。 Particle は非常に洗練された AI ニュース製品であり、情報の広さと中立性、および流動的なコンテンツの可読性と可聴性において優れた仕事をしています。 しかし、このような精密に磨かれた経験と取引情報システムには構造的な違いがあり、同じような製品をやっている仲間たちに助けることができるか、まず書き留めておきます。 1. 情報はキャプチャして統合されるのではなく、クラスター化された理解です。 創業者のサラ・ベイクプール氏がインタビューで繰り返し強調した「ストーリー」という概念には強く賛同し、情報は「つかんで統合する」のではなく「クラスター化して理解される」ことを強調しています。 情報が頭の悪いスクレイピングと連結だけであれば、下流のすべての順序付けと信頼性評価がぼやけてしまいます。 特に、情報密度が非常に高く、リアルタイム要件が強く、コンテキストスパンが大きいトランザクションシナリオでは、大規模モデルに「自由に理解」させることは不可能であり、まずAIによる構造化されたセマンティッククラスタリングのラウンドを実行して、断片化された情報を内部の因果関係の手がかりを持ついくつかのコンパクトな「イベントクラスター」(ストーリー)に整理する必要があります。 2. LLM の強みと盲点: 中立性、因果関係 vs. 予測力 - LLMは、スタイルコントロール/意見、感情の中立性、適度な点で大きな利点があります。 ただし、重合 + 多くの事後評価の後、適時性と構造的張力が犠牲になります。 - LLMは、因果連鎖の判断、因果関係の分析、および非常に微妙なもの、特に「影響経路」と「上流と下流の反応」の間に相関関係があるかどうかを洗練するためのいくつかの箇条書きを得意としており、これらはトランザクションの重要なロジックの1つになります。 - LLMは予測が苦手です。 統計言語モデルとして、「主流の意見」や「高周波信号」を自然に増幅します。 私たち自身の観察では、AI は常に「過度に楽観的」であり、サラの判断は「多くの人がチーム A が勝つと言ったら、モデルはチーム A が勝ったと思うでしょう」です。 「予測はLLMにとって大きな盲点であり、信号エンジンとして使用すべきではありません。 一方、フラッシュのようなチャットボット製品やロックフローのバービーのようなオープンエンド型Q&A+予測がこの限界を突破できるのか、それとも閉じ込められるのかは置いていなければならない。 3. 代替予測の戦略:因果連鎖+構造タイムライン 予測が現在のLLMの欠陥である場合は、予測が行われず適時性が高いときに、TradingViewカレンダーや原因と結果などのセクションを保持しておくと便利です。 あるものが別のものに関連しているかどうか、およびイベントの展開の相対的な順序とトリガーを推測します。 この判断は、実際の予測なしで取引システムの情報バイアスモデルを確立するのにも十分です。 4. 評価作業: 評価は間違いなく非常に洗練され、方向性のある仕事です。 たとえば、抑制は表現を制限します:各文は1つの視点しか持たず、節を避けます。 たとえば、「ヒント」=「意見」は、あいまいな結論を避けるためです。 例えば、要約はXワードを超えることはできず、一度主観的な色や「意図的な表現」があるとエラーとみなされます。 もちろん、パイプラインを自動的に実行するために、各ユニットコンテンツの「臨界」度も定量化されます。 パイプライン全体は非同期で反復可能であり、評価チェックが失敗する限り、タスクは自動的に再起動されます。 したがって、モデルは、すべての推論と表現を 1 ラウンドで完了するのではなく、イベントが発生したかどうかを判断したり、暗黙的でない要約を出力したりするなど、一度に小さなタスクを完了するだけで済みます。 このアプローチの根底にあるロジックは、生成を検証可能で再利用可能な複数の小さなタスクに分割し、幻覚や傾向を最大限に回避するためにそれぞれを実際にチェックできることです。 5. プロトタイプから高品質の AI コンテンツまでの完全な生産ライン Sara は、モデレーション システムを実行する完全なプロセスを共有します: 最初にテスト環境でプロンプトを作成し、5 つの質問を設定し、次に脱獄するか、構造を壊すか、コンテキストを忘れ、モデルが安定した高品質の動作を示すまで、プロンプトは数百行の長さになることがあります。 プロンプトが最初に安定すると、技術チームに引き渡され、プロンプト テンプレートがコンポーネントに分解されて非同期パイプラインに配置され、他のすべての質問はオフライン分析のために実行されます。 最後に、ライブ質問テストを開始して実際のシナリオでシステムを実行し、正式に評価に参加します。 要約すると、AI 支援による情報集約およびプッシュ システムを構築したい場合は、大規模モデルが直接アルファを与えることを空想しないでください。 AI を使用してどのターゲットを購入するかを教えてくれる予測はすべて詐欺です。 本当のノウハウは、アーキテクチャの下でLLMを信頼できるものにする構造、プロセス、検証システムです。
3.39K