SOTA, vestlige åpne modeller ✅ Veldig store modeller ✅ Ny dimensjon for å skalere opp intelligens✅ Bygget for under 3,5 millioner 🤯 dollar Vært fantastisk å jobbe med teamet siden @benchmark investering i november i fjor. Spesiell takk til @adityaag @southpkcommons for at du introduserte oss!
Drishan Arora
Drishan Arora1. aug., 01:02
I dag lanserer vi 4 hybride resonneringsmodeller i størrelsene 70B, 109B MoE, 405B, 671B MoE under åpen lisens. Dette er noen av de sterkeste LLM-ene i verden, og fungerer som et bevis på konseptet for et nytt AI-paradigme - iterativ selvforbedring (AI-systemer som forbedrer seg selv). Den største 671B MoE-modellen er blant de sterkeste åpne modellene i verden. Den matcher/overgår ytelsen til de nyeste DeepSeek v3- og DeepSeek R1-modellene begge, og nærmer seg lukkede frontmodeller som o3 og Claude 4 Opus.
9,32K