Som diskuterades på @BG2Pod bör du förvänta dig att se västerländska företag anamma det "öppna" AI-ekosystemet. De kommer att få samma fördelar av detta som de kinesiska spelarna får. Kommer att vara superstörande. Håll utkik här. Följ @drishanarora och @DeepCogito.
Drishan Arora
Drishan Arora1 aug. 01:02
Idag släpper vi 4 hybridmodeller av storlekarna 70B, 109B MoE, 405B, 671B MoE under öppen licens. Dessa är några av de starkaste LLM:erna i världen och fungerar som ett bevis på konceptet för ett nytt AI-paradigm - iterativ självförbättring (AI-system som förbättrar sig själva). Den största 671B MoE-modellen är bland de starkaste öppna modellerna i världen. Den matchar/överträffar prestandan hos de senaste DeepSeek v3- och DeepSeek R1-modellerna, och närmar sig modeller med sluten gräns som o3 och Claude 4 Opus.
67,16K