Sapient merilis Hierarchical Reasoning Model (HRM) mereka dan hasilnya cukup menarik. Ini adalah model parameter 27M yang mengungguli Claude 3.5 dan o3-mini pada tolok ukur penalaran seperti ARC-AGI-2, teka-teki Sudoku yang kompleks, dan pencarian jalan di labirin besar. Apa yang membuat ini terkenal: Aspek efisiensinya mencolok. HRM dilatih pada sekitar 1000 contoh tanpa prapelatihan atau dorongan Rantai Pemikiran, namun menangani tugas penalaran kompleks yang biasanya membutuhkan model yang jauh lebih besar. Hal ini membuatnya praktis untuk penerapan di perangkat edge dan dapat diakses oleh tim tanpa anggaran komputasi yang besar. Arsitektur yang terinspirasi otak lebih dari sekadar terminologi. HRM menggunakan desain sistem ganda dengan dua modul: satu untuk perencanaan abstrak tingkat tinggi dan satu lagi untuk eksekusi terperinci yang cepat, beroperasi pada skala waktu yang berbeda. Ini mencerminkan bagaimana kognisi manusia bekerja dengan pemrosesan intuitif yang cepat dan penalaran yang disengaja yang lebih lambat. Persyaratan sumber daya rendah mengubah persamaan aksesibilitas. Sementara AI paling canggih membutuhkan infrastruktur yang signifikan, HRM dapat berjalan pada perangkat keras biasa, membuka kemampuan penalaran yang canggih bagi startup dan peneliti yang tidak mampu membeli komputasi skala besar. Pendekatan teknis: Alih-alih memproses token secara berurutan seperti Transformers, HRM menggunakan loop berulang hierarkis yang beroperasi dalam ruang kontinu daripada token diskrit. Model ini memecahkan tugas secara langsung tanpa perlu mengungkapkan proses pemikirannya melalui rantai langkah demi langkah yang eksplisit. Efisiensi parameter berasal dari mempelajari pola penalaran yang menggeneralisasi dari contoh minimal daripada menghafal data pelatihan dalam jumlah besar. Pelatihan ini menggunakan perkiraan gradien satu langkah untuk menjaga penggunaan memori tetap konstan, sehingga praktis pada perangkat keras standar. HRM juga mengadaptasi komputasinya - menghabiskan lebih banyak siklus untuk masalah yang lebih sulit dan lebih sedikit untuk masalah yang lebih sederhana, menggunakan pembelajaran penguatan untuk menentukan kapan harus berhenti bernalar. Proses penalaran dapat ditafsirkan, terutama pada tugas visual di mana Anda dapat mengamati bagaimana hal itu memecahkan masalah selangkah demi selangkah. Ini menunjukkan bahwa penalaran lanjutan mungkin lebih tentang desain arsitektur daripada skala, yang dapat mengubah cara kita berpikir tentang membangun sistem AI yang cakap.
60,05K