Nåværende hypotese: Ja, LLM-er mangler et nøkkelaspekt ved hjernelignende intelligens (lære av små innspill og robust fikse feilene sine, eller noe) ... Og å bruke LLM-er for å drive tankekjede-resonnement er et skjørt hack ... Men skjøre hacks vil komme til å bootstrappe RSI.
6,34K