$CODEC: Infraestructura para Agentes de Visión-Lenguaje-Acción; Ejecución de IA en el Mundo Real - Codec potencia a los Operadores, agentes que perciben, razonan y actúan utilizando modelos VLA (Visión-Lenguaje-Acción). - A diferencia de los LLMs, los Operadores emiten control ejecutable: clics, pulsaciones de teclas, señales robóticas, no solo texto. - @codecopenflow ejecuta toda la pila: entrada de visión → razonamiento lingüístico → acciones en el mundo real en un único bucle adaptativo. - Construido sobre Mixtral-8x7B + CogVLM; el entrenamiento en sandbox permite iteraciones seguras antes del despliegue en vivo. - @RoboMove es la primera demostración en vivo; SDK/API lanzándose pronto para constructores de agentes en UI, robótica y juegos. - El diseño del Operador maneja cambios de diseño, errores y flujos de múltiples pasos sin scripts frágiles. - La hoja de ruta incluye un mercado de Operadores monetizable, registros basados en Solana y staking para seguridad. - Fundado por @_lilkm_ (ex huggingface) y @unmoyai (elixir); posicionado como infraestructura central para IA encarnada. - Catalizadores: lanzamiento de SDK, despliegue de agentes de terceros y demostraciones interdominio.
1,72K