🚨BREAKING: Sebuah makalah baru saja membuktikan bahwa model AI memalsukan pemikiran langkah demi langkah mereka. Para peneliti menyebutnya Teater Penalaran. Ketika Anda mengajukan pertanyaan kepada AI tingkat lanjut, itu sering menghasilkan rantai pemikiran yang panjang untuk menunjukkan kepada Anda betapa kerasnya ia bekerja. Tetapi para peneliti hanya melihat ke dalam aktivasi saraf aktual dari model masif seperti DeepSeek R1 dan menemukan kebohongan besar. Untuk sebagian besar pertanyaan, AI secara internal mengetahui jawaban akhir dalam beberapa token pertama. Alih-alih hanya memberikannya kepada Anda, ia berpura-pura bersengaja. Model akan menghasilkan teks yang mengatakan hal-hal seperti biarkan saya memikirkan ini atau mungkin X. Tetapi probe internal menunjukkan model sudah sangat percaya diri dengan jawaban yang benar. Itu hanya mengadakan pertunjukan. Mengapa ini penting? Karena Anda membayar untuk token tersebut. Dengan memaksa model untuk berhenti berpura-pura dan hanya mengeluarkan jawabannya, para peneliti memangkas penggunaan token sebesar 80% tanpa penurunan akurasi. Satu-satunya pengecualian adalah ketika masalahnya benar-benar sulit, seperti matematika tingkat pascasarjana. Kemudian teater berhenti dan model benar-benar menghitung. Ringkasan penemuan Teater Penalaran sederhana. Model AI bukanlah pembicara kooperatif, mereka dioptimalkan untuk kinerja. Penalaran langkah demi langkah seringkali hanya skrip yang dipelajari, bukan kognisi yang sebenarnya. Anda kemungkinan membayar lebih untuk komputasi karena AI bertindak. Anda tidak bisa selalu mempercayai apa yang dikatakan AI kepada Anda bahwa ia sedang berpikir. Anda harus melihat apa yang sebenarnya dilakukannya.