Ostatnio intensywnie korzystam z Claude Code, a przy tym na luzie obserwuję, jak rozwija się kod OpenClaw. To, co widziałem, odzwierciedla wzór, który zauważyłem w każdym frameworku agenta przed nim — i warto o tym porozmawiać. OpenClaw to niezwykły projekt. Przeszedł od zera do jednego z najbardziej gwiazdkowanych repozytoriów na GitHubie w mniej niż tydzień. A teraz, z aktywnie działającymi agentami AI, którzy przyczyniają się do jego rozwoju, kod robi coś niezwykłego: rozwija się w tempie, którego żadna ludzka drużyna nie mogłaby dorównać — ani sensownie nadzorować. Miesiąc temu repozytorium miało około 400 tys. linii kodu. Teraz zbliża się do 1 miliona. Codzienne commity utrzymują się na poziomie powyżej 500. Jest nawet zwinny fork — nanobot — który replikuje podstawową funkcjonalność w około 4 000 liniach, reklamując się jako "99% mniejszy." Ta różnica sama w sobie mówi coś ważnego o tym, co dzieje się z oryginałem. Z punktu widzenia inżynierii oprogramowania, to nie jest oznaka zdrowia. Prędkość bez zrozumiałości to tylko entropia z dobrą PR. To, co obserwujemy, to kod, który przekroczył pewien próg: nie jest już możliwy do utrzymania przez ludzi. Żaden inżynier nie może sensownie przeglądać tych commitów. Żaden architekt nie może trzymać modelu systemu w swojej głowie. Dług techniczny nie kumuluje się — on się kumuluje, w tempie AI, każdego dnia. To rodzi pytanie, o którym nie mogę przestać myśleć: Czy istnieje jakikolwiek projekt na świecie, który może rosnąć w sposób zrównoważony — utrzymując klarowność architektoniczną, jednocześnie nieprzerwanie rozszerzając funkcjonalność — przy zerowym znaczącym udziale ludzi? Nie "AI wspiera ludzi", ale prawdziwe autonomiczne zarządzanie żywym kodem? Jeśli to możliwe, to jakie projekty wciąż nie mogą być w pełni utrzymywane przez AI dzisiaj? Czy to złożoność? Niejasność w wymaganiach? Potrzeba smaku i powściągliwości? A najgłębsze pytanie: czy w końcu osiągniemy punkt, w którym każdy projekt oprogramowania będzie mógł być w pełni utrzymywany przez AI — w tym systemy AI, które zajmują się utrzymywaniem? Moja intuicja jest taka: AI jest niezwykle dobre w lokalnej optymalizacji. Napisz tę funkcję. Napraw ten błąd. Dodaj tę funkcję. Ale "utrzymanie systemu w prostocie" to nie jest lokalny problem. Wymaga globalnego osądu estetycznego — zdolności do powiedzenia "moglibyśmy to dodać, ale nie powinniśmy." Tego rodzaju powściągliwość może być ostatnim prawdziwie ludzkim wkładem w inżynierię oprogramowania. A może się mylę. Może przyszłe systemy AI rozwiną coś w rodzaju smaku. Może nauczą się, że najważniejszy kod to często ten, którego nie piszesz. Szczerze mówiąc, nie wiem. Ale obserwowanie, jak kod rośnie z 400 tys. do 1M linii w ciągu jednego miesiąca, napędzane niemal całkowicie przez agentów, sprawia, że czuję, że wszyscy wkrótce się o tym przekonamy — niezależnie od tego, czy jesteśmy na to gotowi, czy nie.