Temas en tendencia
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek lanza V3.1, unificando V3 y R1 en un modelo de razonamiento híbrido con un aumento incremental de la inteligencia
Aumento de la inteligencia incremental: Los resultados iniciales de la evaluación comparativa de DeepSeek V3.1 muestran un índice de inteligencia de análisis artificial de 60 en modo de razonamiento, frente a la puntuación de 59 de la R1. En el modo sin razonamiento, V3.1 logra una puntuación de 49, un aumento mayor con respecto a la puntuación anterior de V3 0324 de 44. Esto deja a la V3.1 (razonamiento) detrás de la última Qwen3 235B 2507 (razonamiento) de Alibaba: DeepSeek no ha recuperado el liderazgo.
Razonamiento híbrido: @deepseek_ai ha pasado a un modelo de razonamiento híbrido por primera vez, que admite modos de razonamiento y no razonamiento. El cambio de DeepSeek a un modelo de razonamiento híbrido unificado imita el enfoque adoptado por OpenAI, Anthropic y Google. Es interesante notar, sin embargo, que Alibaba abandonó recientemente su enfoque híbrido que favorecían para Qwen3 con sus versiones separadas de Qwen3 2507 razonamiento y modelos de instrucciones.
Llamada a funciones / uso de herramientas: mientras que DeepSeek afirma que se ha mejorado la llamada a funciones para el modelo, DeepSeek V3.1 no admite la llamada a funciones cuando está en modo de razonamiento. Es probable que esto limite sustancialmente su capacidad para admitir flujos de trabajo de agentes con requisitos de inteligencia, incluso en agentes de codificación.
Uso de tokens: DeepSeek V3.1 obtiene una puntuación incrementalmente más alta en el modo de razonamiento que DeepSeek R1 y usa un poco menos de tokens en las evaluaciones que usamos para el Índice de Inteligencia de Análisis Artificial. En el modo sin razonamiento, utiliza un poco más de tokens que V3 0324, pero aún varias veces menos que en su propio modo de razonamiento.
API: La API propia de DeepSeek ahora sirve el nuevo modelo DeepSeek V3.1 tanto en sus puntos finales de chat como de razonamiento, simplemente cambiando si el token de pensamiento final </think> se proporciona al modelo en la plantilla de chat para controlar si el modelo razonará.
Arquitectura: DeepSeek V3.1 es arquitectónicamente idéntico a los modelos V3 y R1 anteriores, con 671 mil millones de parámetros totales y 37 mil millones de parámetros activos.
Implicaciones: Aconsejamos precaución al hacer suposiciones sobre lo que implica este lanzamiento sobre el progreso de DeepSeek hacia un modelo futuro al que se hace referencia en los rumores como V4 o R2. Observamos que DeepSeek lanzó previamente el modelo final construido en su arquitectura V2 el 10 de diciembre de 2024, solo dos semanas antes del lanzamiento de V3.


70.78K
Populares
Ranking
Favoritas