SOTA,西方开放模型 ✅ 非常大的模型 ✅ 为提升智能开辟新维度 ✅ 建造成本低于350万美元 🤯 自去年11月@benchmark投资以来,与团队合作非常棒。特别感谢@adityaag @southpkcommons的介绍!
Drishan Arora
Drishan Arora8月1日 01:02
今天,我们发布了4个混合推理模型,大小分别为70B、109B MoE、405B和671B MoE,采用开放许可。 这些是世界上最强大的LLM之一,并作为一种新型AI范式的概念验证——迭代自我改进(AI系统自我改进)。 最大的671B MoE模型是世界上最强大的开放模型之一。它的性能与最新的DeepSeek v3和DeepSeek R1模型相匹配/超过,并接近于封闭前沿模型,如o3和Claude 4 Opus。
9.32K