Aktuelle Hypothese: Ja, LLMs fehlen ein entscheidender Aspekt der gehirnähnlichen Intelligenz (lernen aus kleinen Eingaben & robust ihre Fehler beheben, oder so etwas)… Und LLMs zu verwenden, um das Ketten-Denken zu unterstützen, ist ein fragiler Hack… Aber fragile Hacks werden dazu führen, dass RSI bootstrapped wird.
6,36K