BREAKING: Apple tocmai a dovedit că modelele de "raționament" AI precum Claude, DeepSeek-R1 și o3-mini nu raționează deloc. Pur și simplu memorează modele foarte bine. Iată ce a descoperit Apple: (indiciu: nu suntem atât de aproape de AGI pe cât sugerează hype-ul)
Apple a descoperit că aceste modele nu raționează deloc, ci fac o potrivire sofisticată a modelelor care funcționează excelent până când modelele devin prea complexe. Apoi se destramă ca un castel de cărți de joc.
Dacă aceste modele ar fi cu adevărat "raționament", ar trebui să se îmbunătățească cu mai multe calcule și instrucțiuni mai clare. În schimb, se lovesc de ziduri dure și încep să renunțe. Inteligența sau memorarea își ating limitele?
În timp ce companiile de inteligență artificială își sărbătoresc "gândirea" modelelor, Apple a spus practic că "toată lumea sărbătorește raționamentul fals". Industria urmărește indicatori care nu măsoară inteligența reală.
Ce crezi? Apple doar "face față" pentru că au fost depășiți în dezvoltarea AI în ultimii doi ani? Sau are dreptate Apple? Comentați mai jos și voi răspunde la toate.
14,73M