Ik heb de laatste tijd veel gebruik gemaakt van Claude Code, en terwijl ik dat deed, heb ik casual gekeken naar de evolutie van de OpenClaw-codebase. Wat ik heb gezien weerspiegelt een patroon dat ik met elk agentframework ervoor heb gezien — en het is het waard om erover te praten. OpenClaw is een opmerkelijk project. Het ging van nul naar een van de meest gestarte repos op GitHub in minder dan een week. En nu, met AI-agenten die actief bijdragen aan de eigen ontwikkeling, doet de codebase iets buitengewoons: het breidt zich uit met een snelheid die geen enkel menselijk team kan evenaren — of zinvol kan overzien. Een maand geleden had de repo ongeveer 400k regels code. Nu nadert het 1 miljoen. Dagelijkse commits blijven stabiel boven de 500. Er is zelfs een slanke fork — nanobot — die de kernfunctionaliteit in ongeveer 4.000 regels repliceert, en zichzelf adverteert als "99% kleiner." Dat contrast alleen vertelt je iets belangrijks over wat er met het origineel gebeurt. Vanuit een software-engineeringstandpunt is dit geen teken van gezondheid. Snelheid zonder begrijpelijkheid is gewoon entropie met goede PR. Wat we getuigen is een codebase die een drempel is gepasseerd: het is niet langer menselijk onderhoudbaar. Geen enkele engineer kan deze commits zinvol beoordelen. Geen enkele architect kan het systeemmodel in zijn hoofd houden. Technische schuld stapelt zich niet op — het componeert, met AI-snelheid, elke dag opnieuw. Dit roept een vraag op waar ik niet mee kan stoppen met denken: Bestaat er een project in de wereld dat duurzaam kan groeien — architectonische helderheid kan behouden terwijl het continu functionaliteit uitbreidt — met nul zinvolle menselijke betrokkenheid? Niet "AI helpt mensen," maar oprechte autonome zorg voor een levende codebase? Als dat mogelijk is, welke soorten projecten kunnen vandaag de dag nog niet volledig door AI worden onderhouden? Is het complexiteit? Onduidelijkheid in vereisten? De behoefte aan smaak en terughoudendheid? En de diepste vraag: zullen we uiteindelijk een punt bereiken waarop elk softwareproject volledig door AI kan worden onderhouden — inclusief de AI-systemen die het onderhoud uitvoeren? Mijn instinct is dit: AI is buitengewoon goed in lokale optimalisatie. Schrijf deze functie. Los deze bug op. Voeg deze functie toe. Maar "een systeem eenvoudig houden" is geen lokaal probleem. Het vereist globale esthetische beoordeling — het vermogen om te zeggen "we zouden dit kunnen toevoegen, maar we zouden dat niet moeten doen." Die soort terughoudendheid zou de laatste oprechte menselijke bijdrage aan software-engineering kunnen zijn. Of misschien heb ik het mis. Misschien zullen toekomstige AI-systemen iets ontwikkelen dat lijkt op smaak. Misschien leren ze dat de belangrijkste code vaak de code is die je niet schrijft. Ik weet het echt niet. Maar het zien groeien van een codebase van 400k naar 1M regels in een enkele maand, bijna volledig aangedreven door agenten, laat me voelen dat we allemaal op het punt staan om erachter te komen — of we er klaar voor zijn of niet.