Актуальні теми
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
NVIDIA випустила Nemotron 3 Super — модель з відкритими вагами 120B (12B активно), яка отримує 36 балів за індексом штучного аналізу з гібридною архітектурою MoE Mamba-Transformer
Нам надали доступ до цієї моделі ще до запуску, і ми оцінили її з точки зору інтелекту, відкритості та ефективності висновків.
Основні висновки
➤ Поєднує високу відкритість із сильним інтелектом: Nemotron 3 Super має високі результати для свого розміру і є значно інтелектуальнішим за будь-яку іншу модель із порівнянною відкритістю
➤ Nemotron 3 Super набрав 36 балів за Індексом інтелекту штучного аналізу, що на +17 балів випереджає попередній реліз Super і на +12 балів від Nemotron 3 Nano. Порівняно з моделями подібної категорії розмірів, це ставить його попереду gpt-oss-120b (33), але позаду нещодавно випущеного Qwen3.5 122B A10B (42).
➤ Зосереджені на ефективному інтелекті: ми виявили, що Nemotron 3 Super має вищий інтелект, ніж gpt-oss-120b, при цьому забезпечуючи ~10% вищу пропускну здатність на GPU у простому, але реалістичному тесті навантаження
➤ Підтримується сьогодні для швидкого безсерверного висновку: провайдери, включаючи @DeepInfra та @LightningAI, обслуговують цю модель на запуску зі швидкістю до 484 токенів на секунду
Деталі моделі
📝 Nemotron 3 Super має загалом 120,6 млрд і 12,7 млрд активних параметрів, а також контекстне вікно на 1 мільйон токенів і підтримку гібридного мислення. Він публікується з відкритими вагами та дозволяючою ліцензією, а також відкритими даними про навчання та розкриття методології
📐 Модель має кілька конструктивних особливостей, що дозволяють ефективно робити висновки, зокрема використання гібридних архітектур Mamba-Transformer і LatentMoE, багатотокенне прогнозування та квантування NVFP4
🎯 NVIDIA попередньо навчила Nemotron 3 Super (переважно) точності NVFP4, але перейшла на BF16 для післянавчання. Наші оцінювальні бали використовують вагу BF16
🧠 Ми протестували Nemotron 3 Super у його режимі мислення з найбільшими зусиллями («звичайний»), найздатнішому з трьох режимів висновку моделі (вимкнений, низькоуважний і звичайний)

NVIDIA оприлюднила значні дані до та після навчання разом із новими комплексними навчальними рецептами для цієї моделі. Ці розкриття досягають 83 балів у Індексі відкритості штучного аналізу, поступаючись лише високовідкритим моделям Ai2 та MBZUAI, і ставлять Nemotron 3 Super у найпривабливіший квадрант відкритості та інтелекту серед конкурентів.
Nemotron 3 Super — безперечно найрозумніша модель, коли-небудь випущена з таким рівнем відкритості.

Nemotron 3 Super використовував відносно велику кількість токенів у наших оцінках. Він використовував 110M вихідних токена для запуску оцінок Artificial Analysis Intelligence Index — це приблизно на 40% більше, ніж gpt-oss-120b з високими зусиллями в логіці, але на ~20% менше порівняно з Nemotron 3 Nano.
Це значно менше токенів, ніж у Claude Opus 4.6 від Anthropic, який використовував 160 мільйонів токенів, і трохи менше, ніж у OpenAI GPT-5.4 (xhigh), який використовував 120 мільйонів токенів.

При загальному вмісті 120 Б і 12 Б активних параметрів, Nemotron 3 Super все ще є відносно малою порівняно з іншими нещодавніми релізами відкритих ваг від провідних світових лабораторій — GLM-5 (744 Б загалом, 40 Б активних), Qwen3.5 397 Б A17B (397 Б загалом, 17 Б активних) і Кімі K2.5 (1Т загалом, 32 Б активних) кожен у 3–8 разів більший.

NVIDIA зосереджена на ефективному інтелекті для сімейства Nemotron, і ми тестували продуктивність виведення на аналогічних моделях, щоб оцінити вплив архітектурних виборів.
Ми проводили самостійно розміщені тести пропускної здатності на різних моделях peer, використовуючи просту методологію з навантаженнями, що відображали типові сценарії використання, такі як агентні робочі процеси з помірною історією, RAG-додатки або обробка документів.
У цьому тесті Nemotron 3 Super (NVFP4) показує на 11% вищу пропускну здатність на GPU NVIDIA B200, ніж gpt-oss-120b (MXFP4), що розміщує Nemotron 3 Super «вгору і праворуч» порівняно з gpt-oss-120b. Qwen3.5 122B A10B отримує +6 балів за індексом інтелекту порівняно з Nemotron 3 Super, але на 40% нижчу пропускну здатність на GPU.
Наші бали Індексу інтелекту для Nemotron 3 Super оцінювалися за вагами BF16. Ми ще не оцінили, чи має квантування NVFP4 вплив на інтелект, але внутрішні тести NVIDIA показали, що модель NVFP4 досягла медіанної точності 99,8% порівняно з базовим показником BF16.
Для детальнішої інформації про наші тестові налаштування та конфігурації моделей дивіться нашу статтю про Nemotron 3 Super:


Nemotron 3 Super буде доступний з моменту релізу на серверних API від провайдерів, таких як Lightning AI та DeepInfra.
Ми протестували ці кінцеві точки і бачили продуктивність до 484 токена на секунду на стандартних 10k token input навантаженнях.
На момент запуску Nemotron 3 Super займає найпривабливіший квадрант за інтелектом і швидкістю виводу серед аналогів.

7,28K
Найкращі
Рейтинг
Вибране
