BREAKING: Apple właśnie udowodnił, że modele "rozumowania" AI, takie jak Claude, DeepSeek-R1 i o3-mini, w rzeczywistości w ogóle nie rozumują. Po prostu bardzo dobrze zapamiętują wzorce. Oto, co odkrył Apple: (podpowiedź: nie jesteśmy tak blisko AGI, jak sugeruje szum)
Firma Apple odkryła, że te modele w ogóle nie rozumują, ale zamiast tego wykonują wyrafinowane dopasowywanie wzorców, które działają świetnie, dopóki wzorce nie staną się zbyt złożone. Potem rozpadają się jak domek z kart.
Gdyby te modele naprawdę "rozumowały", powinny stać się lepsze dzięki większej mocy obliczeniowej i bardziej przejrzystym instrukcjom. Zamiast tego uderzają w twarde ściany i zaczynają się poddawać. Czy ta inteligencja lub zapamiętywanie osiąga swoje granice?
Podczas gdy firmy zajmujące się sztuczną inteligencją świętują swoje modele "myślenia", Apple w zasadzie powiedział: "Wszyscy świętują fałszywe rozumowanie". Branża goni za wskaźnikami, które nie mierzą rzeczywistej inteligencji.
Co myślisz? Czy Apple po prostu "radzi sobie", ponieważ w ciągu ostatnich dwóch lat został wyprzedzony w rozwoju sztucznej inteligencji? A może Apple ma rację? Skomentuj poniżej, a odpowiem na wszystkie.
14,73M