@BG2Podで議論したように、西側企業が「オープンな」AIエコシステムを採用することを期待すべきです。彼らは中国のプレーヤーと同じ恩恵を受けることになる。非常に破壊的です。このスペースに注目してください。@drishanaroraに従って@DeepCogitoしてください。
Drishan Arora
Drishan Arora8月1日 01:02
本日、オープンライセンスで、サイズ70B、109B MoE、405B、671B MoEの4つのハイブリッド推論モデルをリリースします。 これらは世界で最も強力な LLM の一部であり、新しい AI パラダイムである反復的自己改善 (AI システムが自分自身を改善する) の概念実証として機能します。 最大の671B MoEモデルは、世界で最も強力なオープンモデルの一つです。最新のDeepSeek v3とDeepSeek R1モデルの両方のパフォーマンスに匹敵するか、それを上回り、o3やClaude 4 Opusなどのクローズドフロンティアモデルに近づきます。
64.99K