Hypothèse actuelle : Ouais, les LLMs manquent d'un aspect clé de l'intelligence semblable à celle du cerveau (apprendre à partir de petites entrées et corriger robustement leurs erreurs, ou quelque chose comme ça)… Et utiliser les LLMs pour alimenter le raisonnement en chaîne de pensée est un hack fragile… Mais les hacks fragiles permettront de démarrer le RSI.
6,35K