SOTA, västerländska öppna modeller ✅ Mycket stora modeller ✅ Ny dimension för att skala upp intelligensen✅ Byggd för under 3,5 miljoner 🤯 dollar Det har varit fantastiskt att arbeta med teamet sedan @benchmark:s investering i november förra året. Ett särskilt tack till @adityaag @southpkcommons för att du introducerade oss!
Drishan Arora
Drishan Arora1 aug. 01:02
Idag släpper vi 4 hybridmodeller av storlekarna 70B, 109B MoE, 405B, 671B MoE under öppen licens. Dessa är några av de starkaste LLM:erna i världen och fungerar som ett bevis på konceptet för ett nytt AI-paradigm - iterativ självförbättring (AI-system som förbättrar sig själva). Den största 671B MoE-modellen är bland de starkaste öppna modellerna i världen. Den matchar/överträffar prestandan hos de senaste DeepSeek v3- och DeepSeek R1-modellerna, och närmar sig modeller med sluten gräns som o3 och Claude 4 Opus.
9,63K