Tenho usado muito o Claude Code ultimamente e, enquanto fazia isso, venho acompanhando casualmente a evolução da base de código do OpenClaw. O que presenciei reflete um padrão que já vi se repetir em todos os frameworks de agentes anteriores — e vale a pena comentar sobre isso. OpenClaw é um projeto notável. Ele passou de zero para um dos repositórios mais destacados no GitHub em menos de uma semana. E agora, com agentes de IA contribuindo ativamente para seu próprio desenvolvimento, a base de código está fazendo algo extraordinário: está se expandindo em um ritmo que nenhuma equipe humana conseguiria igualar — ou supervisionar de forma significativa. Há um mês, o repositório tinha cerca de 400 mil linhas de código. Agora está chegando a 1 milhão. Os compromissos diários estão estáveis acima de 500. Existe até um garfo enxuto — nanobot — que replica a funcionalidade principal em cerca de 4.000 linhas, se anunciando como "99% menor". Esse contraste por si só já diz algo importante sobre o que está acontecendo com o original. Do ponto de vista da engenharia de software, isso não é sinal de saúde. Velocidade sem compreensibilidade é apenas entropia com boa PR. O que estamos testemunhando é uma base de código que ultrapassou um limite: não é mais humanamente sustentável. Nenhum engenheiro pode revisar esses commits de forma significativa. Nenhum arquiteto consegue manter o modelo do sistema na cabeça. A dívida técnica não está se acumulando — está se acumulando, na velocidade da IA, todos os dias. Isso levanta uma pergunta que não consigo parar de pensar: Existe algum projeto no mundo que possa crescer de forma sustentável — mantendo a clareza arquitetônica enquanto expande continuamente a funcionalidade — sem nenhum envolvimento humano significativo? Não "IA auxilia humanos", mas uma verdadeira gestão autônoma de uma base de código viva? Se isso for possível, que tipos de projetos ainda não podem ser totalmente mantidos pela IA hoje em dia? É complexidade? Ambiguidade nos requisitos? A necessidade de gosto e contenção? E a pergunta mais profunda: será que eventualmente chegaremos a um ponto em que todo projeto de software possa ser totalmente mantido pela IA — incluindo os sistemas de IA que fazem a manutenção? Meu instinto é este: IA é extraordinariamente boa em otimização local. Escreva esta função. Corrija esse bug. Adicione esse recurso. Mas "manter um sistema simples" não é um problema local. Exige julgamento estético global — a capacidade de dizer "poderíamos adicionar isso, mas não deveríamos." Esse tipo de contenção pode ser a última contribuição genuinamente humana para a engenharia de software. Ou talvez eu esteja errado. Talvez sistemas de IA futuros desenvolvam algo parecido com o gosto. Talvez eles aprendam que o código mais importante geralmente é o que você não escreve. Eu realmente não sei. Mas ver uma base de código crescer de 400 mil para 1 milhão de linhas em um único mês, conduzida quase inteiramente por agentes, me faz sentir que estamos prestes a descobrir — estando prontos ou não.