Giới thiệu NVIDIA Nemotron 3 Super 🎉 Mô hình hybrid Mamba-Transformer MoE với 120B tham số (12B hoạt động) Ngữ cảnh 1M-token gốc Được xây dựng cho các ứng dụng đa tác nhân hiệu quả tính toán và độ chính xác cao Ngoài ra, hoàn toàn mở trọng số, tập dữ liệu và công thức để dễ dàng tùy chỉnh và triển khai. 🧵
Bổ sung mới nhất vào gia đình Nemotron không chỉ là một Nano lớn hơn. ✅ Tốc độ xử lý cao hơn gấp 5 lần và độ chính xác gấp 2 lần so với phiên bản trước ✅ MoE tiềm ẩn gọi 4 lần số chuyên gia để có cùng chi phí suy diễn ✅ Dự đoán đa token giúp giảm đáng kể thời gian tạo ✅ Cấu trúc Hybrid Mamba-Transformer mang lại hiệu suất bộ nhớ và tính toán cải thiện gấp 4 lần ✅ Huấn luyện trước NVFP4 bản địa được tối ưu hóa cho NVIDIA Blackwell Hãy xem xét sâu về các quyết định kiến trúc và phương pháp huấn luyện đằng sau mô hình 👇
🦞Những đổi mới này kết hợp lại để tạo ra một mô hình rất phù hợp cho các tác nhân tự động hoạt động lâu dài. Trên PinchBench—một tiêu chuẩn để đánh giá LLMs như là các tác nhân lập trình @OpenClaw—Nemotron 3 Super đạt 85,6% trên toàn bộ bộ kiểm tra, khiến nó trở thành mô hình mở tốt nhất trong lớp của nó.
@openclaw "NVIDIA Nemotron 3 Super: Nhà lãnh đạo mới trong trí tuệ mở, hiệu quả"
Artificial Analysis
Artificial Analysis10 giờ trước
NVIDIA đã phát hành Nemotron 3 Super, một mô hình lý luận với trọng số mở 120B (12B hoạt động) đạt điểm 36 trên Chỉ số Trí tuệ Phân tích Nhân tạo với kiến trúc MoE Mamba-Transformer lai. Chúng tôi đã được truy cập vào mô hình này trước khi ra mắt và đánh giá nó dựa trên trí tuệ, tính mở và hiệu quả suy diễn. Những điểm chính ➤ Kết hợp tính mở cao với trí tuệ mạnh mẽ: Nemotron 3 Super hoạt động mạnh mẽ cho kích thước của nó và thông minh hơn đáng kể so với bất kỳ mô hình nào có tính mở tương đương. ➤ Nemotron 3 Super đạt 36 điểm trên Chỉ số Trí tuệ Phân tích Nhân tạo, cao hơn 17 điểm so với phiên bản Super trước đó và 12 điểm so với Nemotron 3 Nano. So với các mô hình trong cùng một danh mục kích thước, điều này đưa nó vượt lên trên gpt-oss-120b (33), nhưng đứng sau Qwen3.5 122B A10B mới phát hành (42). ➤ Tập trung vào trí tuệ hiệu quả: chúng tôi nhận thấy Nemotron 3 Super có trí tuệ cao hơn gpt-oss-120b trong khi cho phép thông lượng cao hơn khoảng 10% mỗi GPU trong một bài kiểm tra tải đơn giản nhưng thực tế. ➤ Hỗ trợ ngày hôm nay cho suy diễn không máy chủ nhanh chóng: các nhà cung cấp bao gồm @DeepInfra và @LightningAI đang phục vụ mô hình này ngay khi ra mắt với tốc độ lên đến 484 token mỗi giây. Chi tiết mô hình 📝 Nemotron 3 Super có tổng cộng 120.6B và 12.7B tham số hoạt động, cùng với một cửa sổ ngữ cảnh 1 triệu token và hỗ trợ lý luận lai. Nó được công bố với trọng số mở và giấy phép cho phép, cùng với dữ liệu huấn luyện mở và tiết lộ phương pháp. 📐 Mô hình có một số tính năng thiết kế cho phép suy diễn hiệu quả, bao gồm việc sử dụng kiến trúc Mamba-Transformer lai và LatentMoE, dự đoán đa token, và trọng số định lượng NVFP4. 🎯 NVIDIA đã tiền huấn luyện Nemotron 3 Super chủ yếu ở độ chính xác NVFP4, nhưng đã chuyển sang BF16 cho giai đoạn sau huấn luyện. Các điểm đánh giá của chúng tôi sử dụng trọng số BF16. 🧠 Chúng tôi đã đánh giá Nemotron 3 Super ở chế độ lý luận nỗ lực cao nhất ("thông thường"), là chế độ có khả năng nhất trong ba chế độ suy diễn của mô hình (tắt lý luận, nỗ lực thấp và thông thường).
@openclaw ✨ Nemotron 3 Super hiện đã có sẵn cho các thuê bao Pro và Max của @Perplexity_ai trong menu chọn mô hình. Nó cũng có thể được sử dụng thông qua Agent API và Perplexity Computer.
240