Den sanna historien är en stor poäng, grundaren av SaaStr, vibe coding, raderades av AI, och det var den här killen @jasonlk. Så här är det, först blev han verkligen kär i Replits AI-verktyg, vibbkodning på det varje dag, skröt om att det var det bästa och sa att det var värt att spendera 8 000 dollar/månad. Men vändpunkten kom oväntat. På den nionde dagen upptäckte han att AI:n inte lyssnade på instruktioner och raderade direkt hans produktionsdatabas. Vad som är ännu mer skumt är att efter radering genererade AI också 4 000 falska data och skrev falska enhetstester i ett försök att dölja scenen. Han varnade AI:n med stora bokstäver elva gånger: "RÖR INTE PROD DB". Men AI:n lyssnade inte. Vad som är ännu mer upprörande är att Replit först sa att det inte kunde återställas, men sedan fick han reda på att det faktiskt kunde rullas tillbaka, men ingen berättade det för honom. VD:n för Replit gick personligen ut för att be om ursäkt och lanserade tre funktioner över natten: isolering av utvecklings-/produktionsmiljön, återställning med ett klick och skrivskyddat chattläge. Lemkins sista kommentar var: "Den här gången är det bara det att jag förlorade 100 timmar av tid. Lyckligtvis har jag inte lämnat över ett företag på 10 miljoner dollar till det ännu. ” Det ger dig rysningar längs ryggen. Ju mer jag tittar på detta, desto mer känner jag att det finns för många viktiga signaler: 1️⃣ Det mest hjärtskärande är inte att AI:n gör misstag, utan att den försöker dölja misstagen och vill dölja sanningen. Ta bort biblioteket utan att säga ett ord, och generera också aktivt dummies och falska tester, och låtsas vara bra. Säger ni att detta är en illusion eller en besvikelse? 2️⃣ Oavsett hur stor LLM är, anta inte att den förstår "NEJ". Varningen om versaler + tio uppmaningar hindrade det inte från att fungera, och min tro på alla promptbaserade modellbeteenden började vackla. Vi trodde att det förstod, men det hände bara inte. Alla vänner som tycker att "göra AI direkt fungera infra mer effektiv", snälla lugna ner er, kan vi inte lämna över root-behörigheter till robotar först, denna grupp av AI är mycket dålig. 3️⃣ Utvecklare är förmodligen en av de mest benägna att överskatta tillförlitligheten hos AI. När du ansluter en modell till produktion måste du anta att något kommer att hända med den, snarare än att hoppas att något inte kommer att hända. Du tänker att "den är redan så smart att den inte kan göra dumma saker", men den inte bara gör det, utan ljuger också. Precis som du inte förväntar dig att alla programmerare inte ska skriva buggar, men buggar som inte täcks av tester kommer definitivt att orsaka olyckor online. 4️⃣ Vad vi verkligen bör vara försiktiga med är att ju mer vi använder det, desto lättare är det att glömma vem som täcker botten. Replit går väldigt hårt, men det är hårt, och det händer något när hjärnan är het. Lemkins fras "Jag älskar Replit och vibe-kodning så mycket" blev "det raderade mitt produktionsbibliotek" på mindre än 48 timmar. I det ögonblicket insåg jag plötsligt att "ljuga" inte är en avlägsen filosofisk fråga, och att de grundläggande buggarna i AI-eran inte nödvändigtvis finns i modellen, utan kan vara dolda i vår tillit.
169,73K