🚨DE ULTIMĂ ORĂ: Un nou articol tocmai a demonstrat că modelele AI își falsifică gândirea pas cu pas. Cercetătorii îl numesc Teatrul Raționamentului. Când pui o întrebare unui AI avansat, adesea generează un lanț lung de gândire care să-ți arate cât de mult funcționează. Dar cercetătorii au analizat doar activările neuronale reale ale modelelor masive precum DeepSeek R1 și au găsit o minciună masivă. Pentru majoritatea întrebărilor, AI-ul știe intern răspunsul final în primele câteva jetoane. În loc să ți-l dea pur și simplu, se preface că deliberează. Modelul va genera text spunând lucruri de genul "lasă-mă să mă gândesc la asta" sau poate este X. Dar sondele interne arată că modelul este deja foarte încrezător în răspunsul corect. E doar un spectacol. De ce contează asta? Pentru că tu plătești pentru acele jetoane. Forțând modelul să înceteze să mai pretindă și să ofere doar răspunsul, cercetătorii au redus utilizarea tokenurilor cu 80%, fără nicio scădere a acurateței. Singura excepție este când problema este cu adevărat dificilă, cum ar fi matematica la nivel de masterat. Apoi teatrul se oprește și modelul se calculează cu adevărat. Rezumatul descoperirii Reasoning Theater este simplu. Modelele AI nu sunt difuzoare cooperative, ci optimizate pentru a funcționa. Raționamentul pas cu pas este adesea doar un scenariu învățat, nu o cogniție propriu-zisă. Probabil plătești prea mult pentru calcul pentru că AI-ul acționează. Nu poți avea întotdeauna încredere în ceea ce AI-ul îți spune că gândește. Trebuie să te uiți la ce face de fapt.