Tópicos populares
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
A DeepSeek lança a V3.1, unificando a V3 e a R1 em um modelo híbrido de raciocínio com um aumento incremental na inteligência
Aumento incremental de inteligência: Os resultados iniciais de benchmark para a DeepSeek V3.1 mostram um Índice de Inteligência de Análise Artificial de 60 em modo de raciocínio, acima da pontuação de 59 da R1. Em modo não-raciocínio, a V3.1 alcança uma pontuação de 49, um aumento maior em relação à pontuação anterior da V3 0324 de 44. Isso deixa a V3.1 (raciocínio) atrás do Qwen3 235B 2507 (raciocínio) da Alibaba - a DeepSeek não recuperou a liderança.
Raciocínio híbrido: @deepseek_ai mudou para um modelo híbrido de raciocínio pela primeira vez - suportando tanto modos de raciocínio quanto não-raciocínio. A mudança da DeepSeek para um modelo híbrido unificado imita a abordagem adotada pela OpenAI, Anthropic e Google. É interessante notar, no entanto, que a Alibaba recentemente abandonou a abordagem híbrida que favorecia para o Qwen3 com seus lançamentos separados dos modelos de raciocínio e instrução do Qwen3 2507.
Chamada de função / uso de ferramentas: Embora a DeepSeek afirme ter melhorado a chamada de função para o modelo, a DeepSeek V3.1 não suporta chamada de função quando em modo de raciocínio. Isso provavelmente limitará substancialmente sua capacidade de suportar fluxos de trabalho agentes com requisitos de inteligência, incluindo em agentes de codificação.
Uso de tokens: A DeepSeek V3.1 pontua incrementalmente mais alto em modo de raciocínio do que a DeepSeek R1, e usa ligeiramente menos tokens nos evals que usamos para o Índice de Inteligência de Análise Artificial. Em modo não-raciocínio, usa ligeiramente mais tokens do que a V3 0324 - mas ainda assim várias vezes menos do que em seu próprio modo de raciocínio.
API: A API de primeira parte da DeepSeek agora serve o novo modelo DeepSeek V3.1 em seus endpoints de chat e raciocínio - simplesmente mudando se o token de pensamento final </think> é fornecido ao modelo no template de chat para controlar se o modelo irá raciocinar.
Arquitetura: A DeepSeek V3.1 é arquitetonicamente idêntica aos modelos anteriores V3 e R1, com 671B de parâmetros totais e 37B de parâmetros ativos.
Implicações: Aconselharíamos cautela ao fazer quaisquer suposições sobre o que este lançamento implica sobre o progresso da DeepSeek em direção a um futuro modelo referido em rumores como V4 ou R2. Notamos que a DeepSeek lançou anteriormente o modelo final construído em sua arquitetura V2 em 10 de dezembro de 2024, apenas duas semanas antes de lançar a V3.


70,79K
Top
Classificação
Favoritos