今天,我們發布了4個混合推理模型,大小分別為70B、109B MoE、405B和671B MoE,並在開放許可下提供。 這些是世界上最強大的LLM之一,並作為一種新型AI範式的概念驗證——迭代自我改進(AI系統自我改進)。 最大的671B MoE模型是世界上最強大的開放模型之一。它的性能與最新的DeepSeek v3和DeepSeek R1模型相匹配/超越,並接近封閉邊界模型,如o3和Claude 4 Opus。
408.21K