$CODEC: Infra para Agentes de Visão-Linguagem-Ação; Execução de IA no Mundo Real - Codec potencia Operadores, agentes que percebem, raciocinam e agem usando modelos VLA (Visão-Linguagem-Ação). - Ao contrário dos LLMs, os Operadores emitem controle executável: cliques, pressionamentos de tecla, sinais robóticos, não apenas texto. - @codecopenflow executa toda a pilha: entrada de visão → raciocínio linguístico → ações no mundo real em um único ciclo adaptativo. - Construído sobre Mixtral-8x7B + CogVLM; treinamento em sandbox permite iteração segura antes do lançamento ao vivo. - @RoboMove é a primeira demonstração ao vivo; SDK/API será lançado em breve para construtores de agentes em UI, robótica e jogos. - O design do Operador lida com mudanças de layout, erros e fluxos de múltiplas etapas sem scripts frágeis. - O roadmap inclui um mercado de Operadores monetizável, logs baseados em Solana e staking para segurança. - Fundado por @_lilkm_ (ex huggingface) e @unmoyai (elixir); posicionado como infraestrutura central para IA incorporada. - Catalisadores: lançamento do SDK, implantação de agentes de terceiros e demonstrações interdomínios.
1,6K