Hipotesis saat ini: ya LLM kehilangan aspek kunci dari kecerdasan seperti otak (belajar dari input kecil & memperbaiki kesalahan mereka dengan kuat, atau semacamnya)... Dan menggunakan LLM untuk mendukung penalaran rantai pemikiran adalah peretasan yang rapuh... Tetapi peretasan yang rapuh akan sampai ke bootstrap RSI.
6,36K