Memperkenalkan NVIDIA Nemotron 3 Super 🎉 Buka model MoE Hibrida Mamba-Transformer 120B (aktif 12B Konteks token 1M asli Dibuat untuk aplikasi multi-agen yang efisien komputasi dan akurasi tinggi Plus, bobot, kumpulan data, dan resep yang sepenuhnya terbuka untuk penyesuaian dan penerapan yang mudah. 🧵
Tambahan terbaru untuk keluarga Nemotron ini bukan hanya Nano yang lebih besar. ✅ Throughput hingga 5x lebih tinggi dan akurasi 2x lipat dari versi sebelumnya ✅ MoE laten yang memanggil 4x lebih banyak spesialis ahli untuk biaya inferensi yang sama ✅ Prediksi multi-token yang secara dramatis mengurangi waktu pembuatan ✅ Tulang punggung Mamba-Transformer hibrida menghadirkan efisiensi memori dan komputasi yang ditingkatkan 4x lipat ✅ Prapelatihan NVFP4 asli yang dioptimalkan untuk NVIDIA Blackwell Lihat selami keputusan arsitektur dan metode pelatihan di balik model 👇
🦞Inovasi ini bersatu untuk menciptakan model yang sangat cocok untuk agen otonom yang berjalan lama. Di PinchBench—tolok ukur untuk mengevaluasi LLM sebagai agen pengkodean @OpenClaw—Nemotron 3 Super mendapat skor 85,6% di seluruh rangkaian pengujian lengkap, menjadikannya model terbuka terbaik di kelasnya.
@openclaw "NVIDIA Nemotron 3 Super: Pemimpin baru dalam kecerdasan terbuka dan efisien"
Artificial Analysis
Artificial Analysis7 jam lalu
NVIDIA telah merilis Nemotron 3 Super, model penalaran bobot terbuka 120B (12B aktif) yang mendapat skor 36 pada Indeks Kecerdasan Analisis Buatan dengan arsitektur MoE Mamba-Transformer hibrida Kami diberi akses ke model ini sebelum peluncuran dan mengevaluasinya di seluruh kecerdasan, keterbukaan, dan efisiensi inferensi. Kesimpulan utama ➤ Menggabungkan keterbukaan tinggi dengan kecerdasan yang kuat: Nemotron 3 Super berkinerja kuat untuk ukurannya dan secara substansial lebih cerdas daripada model lain dengan keterbukaan yang sebanding ➤ Nemotron 3 Super mencetak 36 poin pada Indeks Kecerdasan Analisis Buatan, +17 poin di depan rilis Super sebelumnya dan +12 poin dari Nemotron 3 Nano. Dibandingkan dengan model dalam kategori ukuran yang sama, ini menempatkannya di depan gpt-oss-120b (33), tetapi di belakang Qwen3.5 122B A10B (42) yang baru-baru ini dirilis. ➤ Berfokus pada kecerdasan yang efisien: kami menemukan Nemotron 3 Super memiliki kecerdasan yang lebih tinggi daripada gpt-oss-120b sambil memungkinkan throughput ~10% lebih tinggi per GPU dalam uji beban yang sederhana namun realistis ➤ Didukung hari ini untuk inferensi nirserver yang cepat: penyedia termasuk @DeepInfra dan @LightningAI melayani model ini saat diluncurkan dengan kecepatan hingga 484 token per detik Detail model 📝 Nemotron 3 Super memiliki total 120,6 miliar dan 12,7 miliar parameter aktif, bersama dengan jendela konteks 1 juta token dan dukungan penalaran hibrida. Ini diterbitkan dengan bobot terbuka dan lisensi permisif, di samping pengungkapan data pelatihan dan metodologi terbuka 📐 Model ini memiliki beberapa fitur desain yang memungkinkan inferensi yang efisien, termasuk menggunakan arsitektur Mamba-Transformer dan LatentMoE hibrida, prediksi multi-token, dan bobot terkuantisasi NVFP4 🎯 NVIDIA melatih Nemotron 3 Super terlebih dahulu dalam (kebanyakan) presisi NVFP4, tetapi pindah ke BF16 untuk pasca-pelatihan. Skor evaluasi kami menggunakan bobot BF16 🧠 Kami membandingkan Nemotron 3 Super dalam mode penalaran upaya tertinggi ("reguler"), yang paling mampu dari tiga mode inferensi model (penalaran, upaya rendah, dan reguler)
@openclaw ✨ Nemotron 3 Super sekarang tersedia untuk pelanggan @Perplexity_ai Pro dan Max di drop-down pemilih model. Ini juga dapat digunakan melalui Agent API dan Perplexity Computer.
190