Popularne tematy
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
BREAKING: Apple właśnie udowodnił, że modele "rozumowania" AI, takie jak Claude, DeepSeek-R1 i o3-mini, w rzeczywistości w ogóle nie rozumują.
Po prostu bardzo dobrze zapamiętują wzorce.
Oto, co odkrył Apple:
(podpowiedź: nie jesteśmy tak blisko AGI, jak sugeruje szum)

Firma Apple odkryła, że te modele w ogóle nie rozumują, ale zamiast tego wykonują wyrafinowane dopasowywanie wzorców, które działają świetnie, dopóki wzorce nie staną się zbyt złożone.
Potem rozpadają się jak domek z kart.
Gdyby te modele naprawdę "rozumowały", powinny stać się lepsze dzięki większej mocy obliczeniowej i bardziej przejrzystym instrukcjom.
Zamiast tego uderzają w twarde ściany i zaczynają się poddawać.
Czy ta inteligencja lub zapamiętywanie osiąga swoje granice?
Podczas gdy firmy zajmujące się sztuczną inteligencją świętują swoje modele "myślenia", Apple w zasadzie powiedział: "Wszyscy świętują fałszywe rozumowanie".
Branża goni za wskaźnikami, które nie mierzą rzeczywistej inteligencji.
Co myślisz?
Czy Apple po prostu "radzi sobie", ponieważ w ciągu ostatnich dwóch lat został wyprzedzony w rozwoju sztucznej inteligencji?
A może Apple ma rację?
Skomentuj poniżej, a odpowiem na wszystkie.
14,73M
Najlepsze
Ranking
Ulubione