I dag lanserer vi 4 hybride resonneringsmodeller i størrelsene 70B, 109B MoE, 405B, 671B MoE under åpen lisens. Dette er noen av de sterkeste LLM-ene i verden, og fungerer som et bevis på konseptet for et nytt AI-paradigme - iterativ selvforbedring (AI-systemer som forbedrer seg selv). Den største 671B MoE-modellen er blant de sterkeste åpne modellene i verden. Den matcher/overgår ytelsen til de nyeste DeepSeek v3- og DeepSeek R1-modellene begge, og nærmer seg lukkede frontmodeller som o3 og Claude 4 Opus.
408,21K