Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
🧵Los 10 mejores modelos abiertos por proveedor
Aunque los modelos propietarios a menudo encabezan las listas, los modelos abiertos también se emparejan en el modo de batalla y se clasifican en nuestras tablas de clasificación públicas.
Aquí están los 10 primeros cuando se apilan por modelo abierto superior por proveedor.
- #1 Kimi K2 (MIT modificado) @Kimi_Moonshot
- #2 DeepSeek R1 0528 (MIT) @deepseek_ai
- #3 Qwen 235b a22b sin pensar (Apache 2.0) @alibaba_qwen
- #4 MiniMax M1 (MIT) @minimax_ai
- #5 Gemma 3 27b it (Gemma) @googledeepmind
- #6 Mistral Small Ultra (Apache 2.0) @mistral_ai
- #7 Llama 3.1 Nemotron Ultra 253b v1 (modelo abierto de Nvidia) @nvidia
- #8 Comando A (Coherencia) @cohere
- #9 Llama 4 Maverick Instruct (Llama 4) @aiatmeta
- #10 OLMo 2 32b Instruct (Apache 2.0) @allen_ai
Consulte el hilo para obtener más información sobre los 5 primeros de esta lista 👇

Kimi K2 - ¡#1 en la Arena Abierta!
Si ha estado prestando atención a los modelos de código abierto, este nuevo modelo de la empresa de IA en ascenso, Moonshot AI, está causando sensación como uno de los LLM de código abierto más impresionantes hasta la fecha. Nuestra comunidad nos dice que también les encanta la forma en que Kimi K2 responde: Kimi es gracioso sin sonar demasiado robótico.
Kimi K2 se basa en una arquitectura de mezcla de expertos (MoE), con un total de 1 billón de parámetros, de los cuales 32 mil millones están activos durante cualquier inferencia dada. Este diseño ayuda al modelo a equilibrar la eficiencia y el rendimiento bajo demanda.
El modelo abierto superior de DeepSeek, DeepSeek R1-0528, ocupa el puesto #2
R1-0528 es una versión refinada de R1 y el mejor modelo de chat abierto #2 según la comunidad. Fuerte en tareas de diálogo y razonamiento de varios turnos.
R1 (línea de base) es el original, todavía sólido pero ahora ligeramente por detrás de las variantes de ajuste más nuevas.
V3-0324 es un modelo de MoE con 236B parámetros totales, pero activa solo unos pocos expertos por mensaje. Esto lo hace potente y eficiente. Funciona bien en tareas de instrucción, razonamiento y multilingües, pero el formato de solicitud importa más aquí que con R1-0528.
Qwen 235b a22b (sin pensar) es el mejor modelo abierto de Alibaba en el puesto #3
235B-a22b-no-thinking es un modelo en bruto sin ajuste de instrucciones (por lo tanto, "no pensar").
Es excelente en la generación y ocupa un lugar destacado entre la comunidad debido a su poder de razonamiento en bruto.
Algunos otros modelos abiertos con nuestra comunidad de Alibaba incluyen:
Las variantes 32B y 30B-a3b son alternativas más pequeñas y rápidas con un rendimiento sólido, aunque están por detrás de los modelos de primer nivel. Dado que 32B es más denso entre los dos, la comunidad prefiere su precisión sobre 30B-a3b. 30B-a3b es un modelo de MoE que lo hace un poco más rápido.
qwq-32b está diseñado específicamente para abordar problemas de razonamiento complejos y tiene como objetivo igualar el rendimiento de modelos más grandes como DeepSeek R1, pero no deja esa marca cuando se somete a pruebas en el mundo real.
MiniMax M1 entra en la lista con su clasificación de modelo superior en el #4
M1 también se destaca por su enfoque único con arquitectura MoE combinada con una forma de atención llamada "Lightning Attention", un mecanismo linealizado diseñado específicamente para el procesamiento de tokens de alta eficiencia.
El enfoque definitivamente llamó la atención de nuestra comunidad por ser realmente bueno en el diálogo, el razonamiento y el seguimiento de instrucciones.
Google DeepMind aterriza en el #5 con su modelo abierto superior, Gemma 3 27b it
Gemma 3 es un modelo de lenguaje multimodal de peso abierto. Gemma 3 puede manejar entradas de texto e imágenes, sobresaliendo en razonamiento, tareas de contexto largo y aplicaciones de lenguaje de visión. A nuestra comunidad le encanta cómo este Gemma mejoró la eficiencia de la memoria y aumentó el soporte para un contexto más amplio en comparación con las versiones anteriores.
34.6K
Populares
Ranking
Favoritas