$CODEC: 視覚言語行動エージェントのインフラ。リアルワールドAIの実行 - コーデックは、VLA (Vision-Language-Action) モデルを使用して知覚、推論、行動するエージェントであるオペレーターを強化します。 - LLM とは異なり、オペレーターはテキストだけでなく、クリック、キーストローク、ロボット信号などの実行可能な制御を出力します。 - @codecopenflow は、単一のアダプティブ ループで、ビジョン入力→言語推論→現実世界のアクションのフル スタックを実行します。 - Mixtral-8x7B + CogVLM上に構築されています。サンドボックス トレーニングにより、ライブ デプロイ前の安全なイテレーションが可能になります。 - @RoboMoveは最初のライブデモです。UI、ロボティクス、ゲーム全体のエージェントビルダー向けに SDK/API が間もなくリリースされます。 - オペレーター設計は、レイアウトのシフト、エラー、および多ステップフローを脆弱なスクリプトなしで処理します。 - ロードマップには、収益化可能なオペレーター マーケットプレイス、Solana ベースのログ、安全のためのステーキングが含まれます。 - @_lilkm_ (元 huggingface) と @unmoyai (エリクサー) によって設立されました。具現化されたAIのコアインフラとして位置づけられています。 - Catalysts: SDK の起動、サードパーティ エージェントのデプロイ、クロスドメイン デモ
1.59K