BREAKING: Apple har nettopp bevist at AI-"resonnement"-modeller som Claude, DeepSeek-R1 og o3-mini faktisk ikke resonnerer i det hele tatt. De husker bare mønstre veldig bra. Her er hva Apple oppdaget: (hint: vi er ikke så nær AGI som hypen antyder)
Apple oppdaget at disse modellene ikke resonnerer i det hele tatt, men i stedet gjør sofistikert mønstermatching som fungerer bra til mønstre blir for komplekse. Så faller de fra hverandre som et korthus.
Hvis disse modellene virkelig var "resonnement", burde de bli bedre med mer databehandling og klarere instruksjoner. I stedet treffer de harde vegger og begynner å gi opp. Er den intelligensen eller memoreringen i ferd med å treffe sine grenser?
Mens AI-selskaper feirer at modellene deres «tenker», sa Apple i utgangspunktet «Alle feirer falske resonnementer». Bransjen jakter på beregninger som ikke måler faktisk intelligens.
Hva tror du? Takler Apple bare fordi de har blitt forbigått i AI-utviklingen de siste to årene? Eller har Apple rett? Kommenter nedenfor, så svarer jeg alle.
14,73M