Seperti yang dibahas di @BG2Pod, Anda harus berharap untuk melihat perusahaan Barat merangkul ekosistem AI "terbuka". Mereka akan mendapatkan manfaat yang sama seperti yang dilakukan para pemain Tiongkok. Akan sangat mengganggu. Perhatikan ruang ini. Ikuti @drishanarora dan @DeepCogito.
Drishan Arora
Drishan Arora1 Agu, 01.02
Hari ini, kami merilis 4 model penalaran hibrida ukuran 70B, 109B MoE, 405B, 671B MoE di bawah lisensi terbuka. Ini adalah beberapa LLM terkuat di dunia, dan berfungsi sebagai bukti konsep untuk paradigma AI baru - peningkatan diri berulang (sistem AI yang meningkatkan diri mereka sendiri). Model MoE 671B terbesar adalah salah satu model terbuka terkuat di dunia. Ini cocok/melampaui kinerja model DeepSeek v3 dan DeepSeek R1 terbaru, dan mendekati model perbatasan tertutup seperti o3 dan Claude 4 Opus.
64,98K