SOTA、西洋オープンモデル ✅ 非常に大きなモデル ✅ インテリジェンス✅をスケールアップする新しい次元 $3.5M 🤯未満で構築 昨年11月に@benchmarkが投資して以来、チームと一緒に仕事をすることができてとても良かったです。 ご紹介してくださった@adityaag @southpkcommonsさん、特にありがとうございました!
Drishan Arora
Drishan Arora8月1日 01:02
本日、オープンライセンスで、サイズ70B、109B MoE、405B、671B MoEの4つのハイブリッド推論モデルをリリースします。 これらは世界で最も強力な LLM の一部であり、新しい AI パラダイムである反復的自己改善 (AI システムが自分自身を改善する) の概念実証として機能します。 最大の671B MoEモデルは、世界で最も強力なオープンモデルの一つです。最新のDeepSeek v3とDeepSeek R1モデルの両方のパフォーマンスに匹敵するか、それを上回り、o3やClaude 4 Opusなどのクローズドフロンティアモデルに近づきます。
9.3K