BREAKING: Apple baru saja membuktikan model "penalaran" AI seperti Claude, DeepSeek-R1, dan o3-mini sebenarnya tidak beralasan sama sekali. Mereka hanya menghafal pola dengan sangat baik. Inilah yang ditemukan Apple: (petunjuk: kami tidak sedekat AGI seperti yang disarankan oleh hype)
Apple menemukan bahwa model-model ini sama sekali tidak beralasan, melainkan melakukan pencocokan pola canggih yang bekerja dengan baik sampai pola menjadi terlalu kompleks. Kemudian mereka berantakan seperti rumah kartu.
Jika model-model ini benar-benar "penalaran", mereka akan menjadi lebih baik dengan lebih banyak komputasi dan instruksi yang lebih jelas. Sebaliknya, mereka menabrak tembok keras dan mulai menyerah. Apakah kecerdasan atau hafalan itu mencapai batasnya?
Sementara perusahaan AI merayakan model mereka "berpikir", Apple pada dasarnya mengatakan "Semua orang merayakan penalaran palsu." Industri ini mengejar metrik yang tidak mengukur kecerdasan aktual.
Bagaimana menurutmu? Apakah Apple hanya "mengatasi" karena mereka telah dikalahkan dalam perkembangan AI selama dua tahun terakhir? Atau apakah Apple benar? Berkomentar di bawah dan saya akan menanggapi semua.
14,73M