SOTA, westerse open modellen ✅ Zeer grote modellen ✅ Nieuwe dimensie om intelligentie op te schalen ✅ Gebouwd voor minder dan $3,5M 🤯 Het was geweldig om met het team te werken sinds de investering van @benchmark afgelopen november. Speciale dank aan @adityaag @southpkcommons voor de introductie!
Drishan Arora
Drishan Arora1 aug, 01:02
Vandaag brengen we 4 hybride redeneermodellen uit van de groottes 70B, 109B MoE, 405B, 671B MoE onder open licentie. Dit zijn enkele van de sterkste LLM's ter wereld en dienen als bewijs van een nieuw AI-paradigma - iteratieve zelfverbetering (AI-systemen die zichzelf verbeteren). Het grootste 671B MoE-model behoort tot de sterkste open modellen ter wereld. Het evenaart/overtreft de prestaties van de nieuwste DeepSeek v3 en DeepSeek R1 modellen, en benadert gesloten grensmodellen zoals o3 en Claude 4 Opus.
9,42K