Tendencias del momento
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek lanza V3.1, unificando V3 y R1 en un modelo de razonamiento híbrido con un aumento incremental en inteligencia
Aumento incremental de inteligencia: Los resultados iniciales de evaluación para DeepSeek V3.1 muestran un Índice de Inteligencia de Análisis Artificial de 60 en modo de razonamiento, por encima de la puntuación de 59 de R1. En modo no razonamiento, V3.1 alcanza una puntuación de 49, un mayor aumento respecto a la puntuación anterior de V3 0324 de 44. Esto deja a V3.1 (razonamiento) detrás del último Qwen3 235B 2507 de Alibaba (razonamiento) - DeepSeek no ha recuperado el liderazgo.
Razonamiento híbrido: @deepseek_ai ha pasado a un modelo de razonamiento híbrido por primera vez, apoyando tanto modos de razonamiento como no razonamiento. El movimiento de DeepSeek hacia un modelo de razonamiento híbrido unificado imita el enfoque adoptado por OpenAI, Anthropic y Google. Sin embargo, es interesante notar que Alibaba recientemente abandonó su enfoque híbrido que favorecía para Qwen3 con sus lanzamientos separados de los modelos de razonamiento y de instrucción de Qwen3 2507.
Llamadas a funciones / uso de herramientas: Aunque DeepSeek afirma haber mejorado las llamadas a funciones para el modelo, DeepSeek V3.1 no soporta llamadas a funciones cuando está en modo de razonamiento. Esto probablemente limitará sustancialmente su capacidad para soportar flujos de trabajo agentes con requisitos de inteligencia, incluyendo en agentes de codificación.
Uso de tokens: DeepSeek V3.1 obtiene puntuaciones incrementalmente más altas en modo de razonamiento que DeepSeek R1, y utiliza ligeramente menos tokens en las evaluaciones que usamos para el Índice de Inteligencia de Análisis Artificial. En modo no razonamiento, utiliza ligeramente más tokens que V3 0324, pero aún así varias veces menos que en su propio modo de razonamiento.
API: La API de primera parte de DeepSeek ahora sirve el nuevo modelo DeepSeek V3.1 en sus puntos finales de chat y razonamiento, simplemente cambiando si el token de pensamiento final </think> se proporciona al modelo en la plantilla de chat para controlar si el modelo razonará.
Arquitectura: DeepSeek V3.1 es arquitectónicamente idéntico a los modelos anteriores V3 y R1, con 671B de parámetros totales y 37B de parámetros activos.
Implicaciones: Aconsejaríamos precaución al hacer suposiciones sobre lo que esta versión implica sobre el progreso de DeepSeek hacia un futuro modelo referido en rumores como V4 o R2. Notamos que DeepSeek lanzó previamente el modelo final construido sobre su arquitectura V2 el 10 de diciembre de 2024, solo dos semanas antes de lanzar V3.


70,8K
Parte superior
Clasificación
Favoritos