Introduksjon av NVIDIA Nemotron 3 Super 🎉 Åpen 120B-parameter (12B aktiv) hybrid Mamba-Transformer MoE-modell Innebygd 1M-token-kontekst Bygget for beregningseffektive, høy-nøyaktige multiagentapplikasjoner I tillegg fullt åpne vekter, datasett og oppskrifter for enkel tilpasning og distribusjon. 🧵
Dette siste tilskuddet til Nemotron-familien er ikke bare en større Nano. ✅ Opptil 5 ganger høyere gjennomstrømning og 2 ganger nøyaktighet enn forrige versjon ✅ Latent MoE som kaller fire ganger så mange ekspertspesialister for samme slutningskostnad ✅ Multi-token-prediksjon som dramatisk reduserer genereringstiden ✅ Hybrid Mamba-Transformer-ryggrad gir fire ganger bedre minne og beregningseffektivitet ✅ Innebygd NVFP4-fortrening optimalisert for NVIDIA Blackwell Sjekk ut den dypdykking i de arkitektoniske beslutningene og treningsmetodene bak modellen 👇
🦞Disse innovasjonene samles for å skape en modell som er godt egnet for langvarige autonome agenter. På PinchBench—en benchmark for å evaluere LLM-er som @OpenClaw kodingsagenter—scorer Nemotron 3 Super 85,6 % på tvers av hele testpakken, noe som gjør den til den beste åpne modellen i sin klasse.
@openclaw "NVIDIA Nemotron 3 Super: Den nye lederen innen åpen, effektiv intelligens"
Artificial Analysis
Artificial Analysis8 timer siden
NVIDIA har lansert Nemotron 3 Super, en 120B (12B aktiv) åpen vekt-resonnementsmodell som scorer 36 på Artificial Analysis Intelligence Index med en hybrid Mamba-Transformer MoE-arkitektur Vi fikk tilgang til denne modellen før lansering og evaluerte den utover intelligens, åpenhet og inferenseffektivitet. Viktige punkter ➤ Kombinerer høy åpenhet med sterk intelligens: Nemotron 3 Super presterer sterkt for sin størrelse og er betydelig mer intelligent enn noen annen modell med sammenlignbar åpenhet ➤ Nemotron 3 Super fikk 36 poeng på Artificial Analysis Intelligence Index, +17 poeng foran forrige Super-utgivelse og +12 poeng fra Nemotron 3 Nano. Sammenlignet med modeller i en lignende størrelseskategori, plasserer dette den foran gpt-oss-120b (33), men bak den nylig lanserte Qwen3.5 122B A10B (42). ➤ Fokusert på effektiv intelligens: vi fant ut at Nemotron 3 Super hadde høyere intelligens enn gpt-oss-120b, samtidig som den muliggjorde ~10 % høyere gjennomstrømning per GPU i en enkel, men realistisk belastningstest ➤ Støttes i dag for rask serverløs inferens: leverandører inkludert @DeepInfra og @LightningAI tilbyr denne modellen ved lansering med hastigheter på opptil 484 tokens per sekund Modelldetaljer 📝 Nemotron 3 Super har totalt 120,6 milliarder og 12,7 milliarder aktive parametere, sammen med et kontekstvindu på 1 million tokens og støtte for hybrid resonnement. Den publiseres med åpne vekter og en permissiv lisens, sammen med åpen opplæringsdata og metodikk 📐 Modellen har flere designfunksjoner som muliggjør effektiv slutning, inkludert bruk av hybride Mamba-Transformer- og LatentMoE-arkitekturer, multi-token prediksjon og NVFP4 kvantiserte vekter 🎯 NVIDIA forhåndstrente Nemotron 3 Super i (for det meste) NVFP4-presisjon, men gikk over til BF16 for ettertrening. Våre evalueringsresultater bruker BF16-vektene 🧠 Vi testet Nemotron 3 Super i sin høyest innsats resonneringsmodus ("regular"), den mest kapable av modellens tre inferensmoduser (reasoning-off, low-effort og regular)
@openclaw ✨ Nemotron 3 Super er nå tilgjengelig for @Perplexity_ai Pro- og Max-abonnenter i nedtrekksmenyen for modellvelger. Den kan også brukes gjennom Agent API og Perplexity Computer.
198