🚨BREAKING: Uusi tutkimus todisti juuri, että tekoälymallit teeskentelevät askel askeleelta -ajatteluaan. Tutkijat kutsuvat sitä Reasoning Theateriksi. Kun kysyt kehittyneeltä tekoälyltä kysymyksen, se usein synnyttää pitkän ajatusketjun, joka osoittaa, kuinka kovasti se tekee töitä. Mutta tutkijat tutkivat vain massiivisten mallien, kuten DeepSeek R1:n, todellisia hermoaktivaatioita ja löysivät valtavan valheen. Useimpiin kysymyksiin tekoäly tietää sisäisesti lopullisen vastauksen ensimmäisten tokenien aikana. Sen sijaan, että antaisi sen sinulle, se teeskentelee tarkoituksellista. Malli tuottaa tekstiä, jossa lukee esimerkiksi anna minun miettiä tätä tai ehkä se on X. Mutta sisäiset tutkimukset osoittavat, että malli on jo erittäin varma oikeasta vastauksesta. Se on vain show'n esittämistä. Miksi tämä on tärkeää? Koska maksat niistä tokeneista. Pakottamalla mallin lopettamaan teeskentelyn ja vain vastauksen tulostamisen tutkijat vähensivät tokenien käyttöä 80 % ilman tarkkuuden laskua. Ainoa poikkeus on, kun tehtävä on oikeasti vaikea, kuten jatko-opintojen matematiikka. Sitten teatteri pysähtyy ja malli todella laskee. Reasoning Theaterin löydön yhteenveto on yksinkertainen. Tekoälymallit eivät ole yhteistyöpuhujia, ne on optimoitu suoriutumaan. Askel askeleelta -päättely on usein vain opittu käsikirjoitus, ei varsinainen kognitio. Todennäköisesti maksat liikaa laskennasta, koska tekoäly toimii. Et voi aina luottaa siihen, mitä tekoäly kertoo ajattelevansa. Sinun täytyy katsoa, mitä se oikeasti tekee.