$CODEC: 針對視覺-語言-行動代理的基礎設施;現實世界的 AI 執行 - Codec 驅動操作員,這些代理使用 VLA(視覺-語言-行動)模型進行感知、推理和行動。 - 與 LLM 不同,操作員發出可執行的控制:點擊、按鍵、機器人信號,而不僅僅是文本。 - @codecopenflow 運行完整堆疊:視覺輸入 → 語言推理 → 現實世界行動,形成單一自適應循環。 - 基於 Mixtral-8x7B + CogVLM;沙盒訓練使得在實時部署之前能安全迭代。 - @RoboMove 是首個現場演示;SDK/API 將很快推出,供 UI、機器人和遊戲的代理建設者使用。 - 操作員設計處理佈局變化、錯誤和多步流程,而不需要脆弱的腳本。 - 路線圖包括可獲利的操作員市場、基於 Solana 的日誌和安全質押。 - 由 @_lilkm_(前 huggingface)和 @unmoyai(elixir)創立;定位為具身 AI 的核心基礎設施。 - 催化劑:SDK 發布、第三方代理部署和跨領域演示
1.59K