SOTA, западные открытые модели ✅ Очень большие модели ✅ Новая измерение для увеличения интеллекта ✅ Создано за менее чем 3,5 миллиона долларов 🤯 Было здорово работать с командой с момента инвестиций @benchmark в прошлом ноябре. Особая благодарность @adityaag и @southpkcommons за то, что познакомили нас!
Drishan Arora
Drishan Arora1 авг., 01:02
Сегодня мы выпускаем 4 гибридные модели рассуждений размером 70B, 109B MoE, 405B, 671B MoE под открытой лицензией. Это одни из самых мощных LLM в мире и служат доказательством концепции новой парадигмы ИИ - итеративного самоулучшения (системы ИИ, улучшающие себя). Самая большая модель 671B MoE является одной из самых мощных открытых моделей в мире. Она соответствует/превышает производительность последних моделей DeepSeek v3 и DeepSeek R1 и приближается к закрытым фронтовым моделям, таким как o3 и Claude 4 Opus.
9,32K