$CODEC: Infra para agentes de visión-lenguaje-acción; Ejecución de IA en el mundo real - El códec potencia a los operadores, agentes que perciben, razonan y actúan utilizando modelos VLA (Visión-Lenguaje-Acción). - A diferencia de los LLM, los operadores emiten control ejecutable: clics, pulsaciones de teclas, señales robóticas, no solo texto. - @codecopenflow ejecuta la pila completa: la entrada de visión → el razonamiento del lenguaje → las acciones del mundo real en un solo bucle adaptativo. - Construido sobre Mixtral-8x7B + CogVLM; El entrenamiento en espacio aislado permite una iteración segura antes de la implementación en vivo. - @RoboMove es la primera demostración en vivo; SDK/API se lanzará pronto para los creadores de agentes en UI, robótica y juegos. - El diseño del operador maneja cambios de diseño, errores y flujos de varios pasos sin scripts frágiles. - La hoja de ruta incluye un mercado de operadores monetizable, registros basados en Solana y apuestas por seguridad. - Fundado por @_lilkm_ (ex hugggingface) y @unmoyai (elixir); posicionado como infraestructura central para IA incorporada. - Catalizadores: lanzamiento del SDK, implementación de agentes de terceros y demostraciones entre dominios
1.59K