$CODEC: Infra para Agentes de Visão-Linguagem-Ação; Execução de IA do mundo real - O codec capacita os operadores, agentes que percebem, raciocinam e agem usando modelos VLA (Visão-Linguagem-Ação). - Ao contrário dos LLMs, os operadores emitem controle executável: cliques, pressionamentos de tecla, sinais robóticos, não apenas texto. - @codecopenflow executa a pilha completa: entrada de visão → raciocínio de linguagem → ações do mundo real em um único loop adaptativo. - Construído em Mixtral-8x7B + CogVLM; O treinamento em área restrita permite a iteração segura antes da implantação ao vivo. - @RoboMove é a primeira demonstração ao vivo; SDK/API será lançado em breve para criadores de agentes em interface do usuário, robótica e jogos. - O design do operador lida com mudanças de layout, erros e fluxos de várias etapas sem scripts frágeis. - O roteiro inclui mercado monetizável de operadores, logs baseados em Solana e staking para segurança. - Fundada por @_lilkm_ (ex huggingface) e @unmoyai (elixir); posicionado como infraestrutura central para IA incorporada. - Catalysts: lançamento do SDK, implantação de agente de terceiros e demonstrações entre domínios
1,46K