$CODEC: 视觉-语言-行动代理的基础设施;现实世界的人工智能执行 - Codec 驱动操作员,这些代理使用 VLA(视觉-语言-行动)模型进行感知、推理和行动。 - 与 LLMs 不同,操作员发出可执行控制:点击、击键、机器人信号,而不仅仅是文本。 - @codecopenflow 运行完整的堆栈:视觉输入 → 语言推理 → 现实世界的行动,形成一个单一的自适应循环。 - 基于 Mixtral-8x7B + CogVLM;沙盒训练使得在实时部署前能够安全迭代。 - @RoboMove 是第一个实时演示;SDK/API 即将推出,面向 UI、机器人和游戏的代理构建者。 - 操作员设计处理布局变化、错误和多步骤流程,而无需脆弱的脚本。 - 路线图包括可盈利的操作员市场、基于 Solana 的日志和安全质押。 - 由 @_lilkm_(前 huggingface)和 @unmoyai(elixir)创立;定位为具身 AI 的核心基础设施。 - 催化剂:SDK 发布、第三方代理部署和跨领域演示。
1.59K