Huidige hypothese: Ja, LLM's missen een belangrijk aspect van hersenachtige intelligentie (leren van kleine input & robuust hun fouten corrigeren, of zoiets)... En het gebruik van LLM's om keten-van-denken redenering aan te drijven is een fragiele hack... Maar fragiele hacks zullen leiden tot het opstarten van RSI.
6,34K