Nuvarande hypotes: Ja LLM:er saknar en viktig aspekt av hjärnliknande intelligens (att lära sig från liten input och robust åtgärda sina misstag, eller något) ... Och att använda LLM:er för att driva tankekedjeresonemang är ett bräckligt hack ... Men ömtåliga hacks kommer att komma till bootstrapping RSI.
6,35K