本日、オープンライセンスで、サイズ70B、109B MoE、405B、671B MoEの4つのハイブリッド推論モデルをリリースします。 これらは世界で最も強力な LLM の一部であり、新しい AI パラダイムである反復的自己改善 (AI システムが自分自身を改善する) の概念実証として機能します。 最大の671B MoEモデルは、世界で最も強力なオープンモデルの一つです。最新のDeepSeek v3とDeepSeek R1モデルの両方のパフォーマンスに匹敵するか、それを上回り、o3やClaude 4 Opusなどのクローズドフロンティアモデルに近づきます。
408.21K