SOTA, westliche offene Modelle ✅ Sehr große Modelle ✅ Neue Dimension zur Skalierung von Intelligenz ✅ Für unter 3,5 Millionen Dollar gebaut 🤯 Es war großartig, seit der Investition von @benchmark im letzten November mit dem Team zu arbeiten. Besonderer Dank an @adityaag und @southpkcommons für die Einführung!
Drishan Arora
Drishan Arora1. Aug., 01:02
Heute veröffentlichen wir 4 hybride Denkmodelle mit den Größen 70B, 109B MoE, 405B und 671B MoE unter offener Lizenz. Dies sind einige der stärksten LLMs der Welt und dienen als Proof of Concept für ein neuartiges KI-Paradigma - iterative Selbstverbesserung (KI-Systeme, die sich selbst verbessern). Das größte Modell mit 671B MoE gehört zu den stärksten offenen Modellen der Welt. Es erreicht/übertrifft die Leistung der neuesten DeepSeek v3 und DeepSeek R1 Modelle und nähert sich geschlossenen Grenzmodellen wie o3 und Claude 4 Opus.
9,32K