🧵Топ-10 открытых моделей по провайдеру Хотя проприетарные модели часто занимают первые места, открытые модели также участвуют в битвах и ранжируются на наших публичных таблицах лидеров. Вот топ-10, когда они упорядочены по открытым моделям от провайдеров. - #1 Kimi K2 (Модифицированная MIT) @Kimi_Moonshot - #2 DeepSeek R1 0528 (MIT) @deepseek_ai - #3 Qwen 235b a22b без размышлений (Apache 2.0) @alibaba_qwen - #4 MiniMax M1 (MIT) @minimax_ai - #5 Gemma 3 27b it (Gemma) @googledeepmind - #6 Mistral Small Ultra (Apache 2.0) @mistral_ai - #7 Llama 3.1 Nemotron Ultra 253b v1 (Открытая модель Nvidia) @nvidia - #8 Command A (Cohere) @cohere - #9 Llama 4 Maverick Instruct (Llama 4) @aiatmeta - #10 OLMo 2 32b Instruct (Apache 2.0) @allen_ai Смотрите тред, чтобы узнать немного больше о топ-5 в этом списке 👇
Kimi K2 - #1 в Открытой Арене! Если вы следили за моделями с открытым исходным кодом, эта новая модель от поднимающейся AI-компании Moonshot AI производит фурор как одна из самых впечатляющих LLM с открытым исходным кодом на сегодняшний день. Наше сообщество говорит, что им также нравится, как Kimi K2 отвечает: Kimi остроумен, не звуча при этом слишком роботизированно. Kimi K2 построен на архитектуре Mixture-of-Experts (MoE) с общим количеством 1 триллион параметров, из которых 32 миллиарда активны во время любого данного вывода. Этот дизайн помогает модели сбалансировать эффективность и производительность по запросу.
Топовая открытая модель DeepSeek, DeepSeek R1-0528, занимает 2-е место R1-0528 — это усовершенствованная версия R1, настроенная на инструкции, и 2-я лучшая открытая чат-модель по версии сообщества. Сильна в многоповоротном диалоге и задачах рассуждения. R1 (базовая версия) — это оригинал, все еще надежный, но теперь немного отстает от новых вариантов настройки. V3-0324 — это модель MoE с 236B параметрами, но активирует только несколько экспертов на каждый запрос. Это делает ее как мощной, так и эффективной. Она хорошо справляется с задачами по инструкциям, рассуждениям и многоязычным задачам, но формат запроса здесь имеет большее значение, чем с R1-0528.
Qwen 235b a22b (без размышлений) — это ведущая открытая модель Alibaba, занимающая 3-е место. 235B-a22b-no-thinking — это сырая модель без настройки инструкций (поэтому "без размышлений"). Она отлично справляется с генерацией и занимает высокие позиции в сообществе благодаря своей сырой способности к рассуждению. Некоторые другие ведущие открытые модели от Alibaba, представленные нашим сообществом, включают: Варианты 32B и 30B-a3b являются меньшими, более быстрыми альтернативами с хорошей производительностью, хотя они отстают от моделей высшего уровня. Сообщество предпочитает 32B за его точность по сравнению с 30B-a3b, который является моделью MoE, что делает его немного быстрее. qwq-32b специально разработан для решения сложных задач рассуждения и нацелен на то, чтобы соответствовать производительности более крупных моделей, таких как DeepSeek R1, но не совсем достигает этой цели при реальном тестировании.
MiniMax M1 попадает в список с их топовой моделью, занимающей 4-е место. M1 также выделяется своим уникальным подходом с архитектурой MoE, объединенной с формой внимания, называемой "Lightning Attention" — линейным механизмом, специально разработанным для высокоэффективной обработки токенов. Этот подход определенно привлек внимание нашего сообщества благодаря своей высокой эффективности в диалогах, рассуждениях и выполнении инструкций.
Google DeepMind занимает 5-е место с их лучшей открытой моделью, Gemma 3 27b. Gemma 3 — это многомодальная языковая модель с открытыми весами. Gemma 3 может обрабатывать как текстовые, так и визуальные входные данные, превосходя в рассуждениях, задачах с длинным контекстом и приложениях, связанных с языком и изображением. Нашему сообществу нравится, как эта Gemma улучшила эффективность памяти и увеличила поддержку для более крупного контекста по сравнению с предыдущими версиями.
34,59K