突破性:Apple 剛剛證明,像 Claude、DeepSeek-R1 和 o3-mini 這樣的 AI“推理”模型實際上根本沒有推理。 他們就是能很好地記住模式。 以下是 Apple 的發現: (提示:我們並不像炒作所暗示的那樣接近 AGI)
Apple 發現這些模型根本不是推理,而是進行複雜的模式匹配,在模式變得過於複雜之前,這種匹配效果很好。 然後他們像紙牌屋一樣分崩離析。
如果這些模型真的是 「推理」,那麼它們應該會隨著更多的計算和更清晰的指令而變得更好。 相反,他們撞上了硬牆,開始放棄。 這種智力或記憶力是否達到了極限?
雖然 AI 公司慶祝他們的模型「思考」 但 Apple 基本上說「每個人都在慶祝虛假推理」。 該行業正在追逐不衡量實際情報的指標。
你覺得怎麼樣? 蘋果只是因為在過去兩年的 AI 發展方面落後於他們而「應對」嗎? 還是 Apple 是對的? 在下面評論,我會回復所有人。
14.73M