Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Ostatnio intensywnie korzystam z Claude Code, a przy tym na luzie obserwuję, jak rozwija się kod OpenClaw. To, co widziałem, odzwierciedla wzór, który zauważyłem w każdym frameworku agenta przed nim — i warto o tym porozmawiać.
OpenClaw to niezwykły projekt. Przeszedł od zera do jednego z najbardziej gwiazdkowanych repozytoriów na GitHubie w mniej niż tydzień. A teraz, z aktywnie działającymi agentami AI, którzy przyczyniają się do jego rozwoju, kod robi coś niezwykłego: rozwija się w tempie, którego żadna ludzka drużyna nie mogłaby dorównać — ani sensownie nadzorować.
Miesiąc temu repozytorium miało około 400 tys. linii kodu. Teraz zbliża się do 1 miliona. Codzienne commity utrzymują się na poziomie powyżej 500. Jest nawet zwinny fork — nanobot — który replikuje podstawową funkcjonalność w około 4 000 liniach, reklamując się jako "99% mniejszy." Ta różnica sama w sobie mówi coś ważnego o tym, co dzieje się z oryginałem.
Z punktu widzenia inżynierii oprogramowania, to nie jest oznaka zdrowia. Prędkość bez zrozumiałości to tylko entropia z dobrą PR.
To, co obserwujemy, to kod, który przekroczył pewien próg: nie jest już możliwy do utrzymania przez ludzi. Żaden inżynier nie może sensownie przeglądać tych commitów. Żaden architekt nie może trzymać modelu systemu w swojej głowie. Dług techniczny nie kumuluje się — on się kumuluje, w tempie AI, każdego dnia.
To rodzi pytanie, o którym nie mogę przestać myśleć:
Czy istnieje jakikolwiek projekt na świecie, który może rosnąć w sposób zrównoważony — utrzymując klarowność architektoniczną, jednocześnie nieprzerwanie rozszerzając funkcjonalność — przy zerowym znaczącym udziale ludzi? Nie "AI wspiera ludzi", ale prawdziwe autonomiczne zarządzanie żywym kodem?
Jeśli to możliwe, to jakie projekty wciąż nie mogą być w pełni utrzymywane przez AI dzisiaj? Czy to złożoność? Niejasność w wymaganiach? Potrzeba smaku i powściągliwości?
A najgłębsze pytanie: czy w końcu osiągniemy punkt, w którym każdy projekt oprogramowania będzie mógł być w pełni utrzymywany przez AI — w tym systemy AI, które zajmują się utrzymywaniem?
Moja intuicja jest taka: AI jest niezwykle dobre w lokalnej optymalizacji. Napisz tę funkcję. Napraw ten błąd. Dodaj tę funkcję. Ale "utrzymanie systemu w prostocie" to nie jest lokalny problem. Wymaga globalnego osądu estetycznego — zdolności do powiedzenia "moglibyśmy to dodać, ale nie powinniśmy." Tego rodzaju powściągliwość może być ostatnim prawdziwie ludzkim wkładem w inżynierię oprogramowania.
A może się mylę. Może przyszłe systemy AI rozwiną coś w rodzaju smaku. Może nauczą się, że najważniejszy kod to często ten, którego nie piszesz.
Szczerze mówiąc, nie wiem. Ale obserwowanie, jak kod rośnie z 400 tys. do 1M linii w ciągu jednego miesiąca, napędzane niemal całkowicie przez agentów, sprawia, że czuję, że wszyscy wkrótce się o tym przekonamy — niezależnie od tego, czy jesteśmy na to gotowi, czy nie.
Najlepsze
Ranking
Ulubione
