Ipoteza actuală: Da, LLM-urilor le lipsește un aspect cheie al inteligenței creierului (învățând din informații mici și reparându-și greșelile sau ceva de genul acesta)... Și utilizarea LLM-urilor pentru a alimenta raționamentul lanțului de gândire este un hack fragil... Dar hack-urile fragile vor ajunge să pornească RSI.
6,35K