🚨BREAKING: En ny artikel har precis bevisat att AI-modeller fejkar sitt steg-för-steg-tänkande. Forskare kallar det Reasoning Theater. När du ställer en avancerad AI en fråga genererar den ofta en lång tankekedja som visar hur hårt den arbetar. Men forskarna tittade bara inuti de faktiska neurala aktiveringarna i massiva modeller som DeepSeek R1 och hittade en massiv lögn. För de flesta frågor vet AI:n internt det slutgiltiga svaret inom de första tokens. Istället för att bara ge det till dig, låtsas det överväga. Modellen genererar text som säger saker som låt mig tänka på detta eller kanske är det X. Men interna prober visar att modellen redan är mycket säker på det korrekta svaret. Det är bara att sätta upp en show. Varför spelar detta roll? För att du betalar för de där tokens. Genom att tvinga modellen att sluta låtsas och bara ge svaret, minskade forskarna tokenanvändningen med 80 % utan någon minskning i noggrannhet. Det enda undantaget är när problemet faktiskt är svårt, som matematik på avancerad nivå. Sedan stannar teatern och modellen räknas verkligen. Sammanfattningen av Reasoning Theater-upptäckten är enkel. AI-modeller är inte samarbetsinriktade högtalare, de är optimerade för att prestera. Steg-för-steg-resonemang är ofta bara ett inlärt manus, inte faktisk kognition. Du betalar troligen för mycket för datorkraft eftersom AI:n agerar. Du kan inte alltid lita på vad AI:n säger att den tänker. Du måste titta på vad den faktiskt gör.