Populære emner
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Introduksjon av NVIDIA Nemotron 3 Super 🎉
Åpen 120B-parameter (12B aktiv) hybrid Mamba-Transformer MoE-modell
Innebygd 1M-token-kontekst
Bygget for beregningseffektive, høy-nøyaktige multiagentapplikasjoner
I tillegg fullt åpne vekter, datasett og oppskrifter for enkel tilpasning og distribusjon. 🧵
Dette siste tilskuddet til Nemotron-familien er ikke bare en større Nano.
✅ Opptil 5 ganger høyere gjennomstrømning og 2 ganger nøyaktighet enn forrige versjon
✅ Latent MoE som kaller fire ganger så mange ekspertspesialister for samme slutningskostnad
✅ Multi-token-prediksjon som dramatisk reduserer genereringstiden
✅ Hybrid Mamba-Transformer-ryggrad gir fire ganger bedre minne og beregningseffektivitet
✅ Innebygd NVFP4-fortrening optimalisert for NVIDIA Blackwell
Sjekk ut den dypdykking i de arkitektoniske beslutningene og treningsmetodene bak modellen 👇

🦞Disse innovasjonene samles for å skape en modell som er godt egnet for langvarige autonome agenter.
På PinchBench—en benchmark for å evaluere LLM-er som @OpenClaw kodingsagenter—scorer Nemotron 3 Super 85,6 % på tvers av hele testpakken, noe som gjør den til den beste åpne modellen i sin klasse.

@openclaw "NVIDIA Nemotron 3 Super: Den nye lederen innen åpen, effektiv intelligens"

8 timer siden
NVIDIA har lansert Nemotron 3 Super, en 120B (12B aktiv) åpen vekt-resonnementsmodell som scorer 36 på Artificial Analysis Intelligence Index med en hybrid Mamba-Transformer MoE-arkitektur
Vi fikk tilgang til denne modellen før lansering og evaluerte den utover intelligens, åpenhet og inferenseffektivitet.
Viktige punkter
➤ Kombinerer høy åpenhet med sterk intelligens: Nemotron 3 Super presterer sterkt for sin størrelse og er betydelig mer intelligent enn noen annen modell med sammenlignbar åpenhet
➤ Nemotron 3 Super fikk 36 poeng på Artificial Analysis Intelligence Index, +17 poeng foran forrige Super-utgivelse og +12 poeng fra Nemotron 3 Nano. Sammenlignet med modeller i en lignende størrelseskategori, plasserer dette den foran gpt-oss-120b (33), men bak den nylig lanserte Qwen3.5 122B A10B (42).
➤ Fokusert på effektiv intelligens: vi fant ut at Nemotron 3 Super hadde høyere intelligens enn gpt-oss-120b, samtidig som den muliggjorde ~10 % høyere gjennomstrømning per GPU i en enkel, men realistisk belastningstest
➤ Støttes i dag for rask serverløs inferens: leverandører inkludert @DeepInfra og @LightningAI tilbyr denne modellen ved lansering med hastigheter på opptil 484 tokens per sekund
Modelldetaljer
📝 Nemotron 3 Super har totalt 120,6 milliarder og 12,7 milliarder aktive parametere, sammen med et kontekstvindu på 1 million tokens og støtte for hybrid resonnement. Den publiseres med åpne vekter og en permissiv lisens, sammen med åpen opplæringsdata og metodikk
📐 Modellen har flere designfunksjoner som muliggjør effektiv slutning, inkludert bruk av hybride Mamba-Transformer- og LatentMoE-arkitekturer, multi-token prediksjon og NVFP4 kvantiserte vekter
🎯 NVIDIA forhåndstrente Nemotron 3 Super i (for det meste) NVFP4-presisjon, men gikk over til BF16 for ettertrening. Våre evalueringsresultater bruker BF16-vektene
🧠 Vi testet Nemotron 3 Super i sin høyest innsats resonneringsmodus ("regular"), den mest kapable av modellens tre inferensmoduser (reasoning-off, low-effort og regular)

@openclaw ✨ Nemotron 3 Super er nå tilgjengelig for @Perplexity_ai Pro- og Max-abonnenter i nedtrekksmenyen for modellvelger. Den kan også brukes gjennom Agent API og Perplexity Computer.
198
Topp
Rangering
Favoritter
