Luin juuri tämän Googlen tutkimuspaperin, joka rikkoi aivoni 😳 täysin Niinpä nämä tutkijat ottivat tavallisia kielimalleja - samoja, joita kaikki sanovat "eivät oikein osaa ajatella" - ja kokeilivat jotain kuolettavan yksinkertaista. Sen sijaan, että he olisivat pyytäneet nopeita vastauksia, he sanoivat vain: "Hei, näytä minulle, kuinka selviät tästä askel askeleelta." Se siitä. Ei hienoa harjoittelua. Ei erityisiä algoritmeja. Vain parempia kehotteita. Tulokset? Aivan hullua. Matemaattiset ongelmat, jotka hämmentävät näitä malleja? Yhtäkkiä he ratkaisevat niitä vasemmalle ja oikealle. Puhumme 18 %:n tarkkuudesta ampumalla jopa 57 %:iin täsmälleen samalla mallilla. Samat aivot, erilaiset keskustelut. Mutta tässä kohtaa se muuttuu oudoksi. Tämä toimi vain todella suurissa malleissa. Pienemmät? Ne itse asiassa pahenivat. Alkoi höpötellä, joka kuulosti fiksulta, mutta jossa ei ollut mitään järkeä. Jotain maagista tapahtuu kuitenkin 100 miljardin parametrin ympärillä. Malli vain... alkaa ajatella. Kuten todelliset loogiset päättelyketjut, joita voit seurata. Kukaan ei opettanut sille tätä. Se vain ilmestyi. Olen käyttänyt ChatGPT:tä ja Claudea täysin väärin koko ajan. Sen sijaan, että olisin halunnut välittömiä vastauksia, minun olisi pitänyt kysyä "opasta minut tämän läpi". He testasivat tätä kaikessa. Matematiikkaa, maalaisjärkeä koskevia kysymyksiä, logiikkapulmia. Sama kuvio kaikkialla. Mallit pystyivät aina tähän - emme vain koskaan tienneet, miten kysyä. Saa minut miettimään, mitä muuta nämä järjestelmät voivat tehdä, mitä emme ole vielä tajunneet. Jos esimerkiksi päättely vain ponnahtaa esiin, kun skaalaat asioita ja kysyt eri tavalla, mitä tapahtuu, kun joku keksii oikean tavan kannustaa luovuuteen? Tai suunnittelua? Tai todella vaikeiden ongelmien ratkaiseminen? Hulluinta on, että malleja ei tarvitse edes kouluttaa uudelleen. Heillä on jo tämä kyky istumassa ja odottamassa, että joku avaa sen oikealla keskustelulla. Olemme käyneet vääriä keskusteluja tekoälyn kanssa koko ajan.