Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
ROTTURA: Apple ha appena dimostrato che i modelli di "ragionamento" AI come Claude, DeepSeek-R1 e o3-mini in realtà non ragionano affatto.
Memorizzano i modelli molto bene.
Ecco cosa ha scoperto Apple:
(suggerimento: non siamo così vicini all'AGI come suggerisce l'hype)

Apple ha scoperto che questi modelli non stanno affatto ragionando, ma stanno invece facendo una sofisticata corrispondenza di modelli che funziona alla grande fino a quando i modelli non diventano troppo complessi.
Poi cadono a pezzi come un castello di carte.
Se questi modelli fossero veramente "ragionanti", dovrebbero migliorare con più calcolo e istruzioni più chiare.
Invece, colpiscono muri duri e iniziano ad arrendersi.
Quell'intelligenza o quella memorizzazione stanno raggiungendo i suoi limiti?
Mentre le aziende di intelligenza artificiale celebrano il "pensiero" dei loro modelli, Apple ha sostanzialmente affermato che "tutti celebrano il ragionamento falso".
L'industria è alla ricerca di metriche che non misurano l'intelligenza effettiva.
Che ne pensi?
Apple sta semplicemente "facendo fronte" perché è stata superata negli sviluppi dell'intelligenza artificiale negli ultimi due anni?
O Apple ha ragione?
Commenta qui sotto e risponderò a tutti.
14,73M
Principali
Ranking
Preferiti