Ipotesi attuale: Sì, i LLM mancano di un aspetto chiave dell'intelligenza simile a quella umana (imparare da input ridotti e correggere robustamente i propri errori, o qualcosa del genere)… E utilizzare i LLM per alimentare il ragionamento a catena di pensieri è un hack fragile… Ma gli hack fragili porteranno a un bootstrap dell'RSI.
6,36K