O DeepSeek lança a V3.1, unificando a V3 e a R1 em um modelo de raciocínio híbrido com um aumento incremental na inteligência Aumento incremental da inteligência: Os resultados iniciais do benchmarking para o DeepSeek V3.1 mostram um Índice de Inteligência de Análise Artificial de 60 no modo de raciocínio, acima da pontuação de 59 do R1. No modo sem raciocínio, a V3.1 atinge uma pontuação de 49, um aumento maior em relação à pontuação anterior da V3 0324 de 44. Isso deixa a V3.1 (raciocínio) atrás do mais recente Qwen3 235B 2507 (raciocínio) do Alibaba - o DeepSeek não retomou a liderança. Raciocínio híbrido: @deepseek_ai mudou para um modelo de raciocínio híbrido pela primeira vez - suportando os modos de raciocínio e não raciocínio. A mudança da DeepSeek para um modelo de raciocínio híbrido unificado imita a abordagem adotada pela OpenAI, Anthropic e Google. É interessante notar, no entanto, que o Alibaba abandonou recentemente a abordagem híbrida que eles preferiam para o Qwen3 com seus lançamentos separados de modelos de raciocínio e instrução do Qwen3 2507. Chamada de função/uso da ferramenta: Embora o DeepSeek afirme ter melhorado a chamada de função para o modelo, o DeepSeek V3.1 não oferece suporte à chamada de função quando está no modo de raciocínio. É provável que isso limite substancialmente sua capacidade de oferecer suporte a fluxos de trabalho agenciais com requisitos de inteligência, inclusive em agentes de codificação. Uso de token: o DeepSeek V3.1 tem uma pontuação cada vez mais alta no modo de raciocínio do que o DeepSeek R1 e usa um pouco menos de tokens nas avaliações que usamos para o Índice de Inteligência de Análise Artificial. No modo sem raciocínio, ele usa um pouco mais de tokens do que V3 0324 - mas ainda várias vezes menos do que em seu próprio modo de raciocínio. API: A API primária do DeepSeek agora atende ao novo modelo DeepSeek V3.1 em seus endpoints de bate-papo e raciocínio - simplesmente alterando se o token de pensamento final </think> é fornecido ao modelo no modelo de bate-papo para controlar se o modelo raciocinará. Arquitetura: O DeepSeek V3.1 é arquitetonicamente idêntico aos modelos V3 e R1 anteriores, com 671B de parâmetros totais e 37B de parâmetros ativos. Implicações: Aconselhamos cautela ao fazer qualquer suposição sobre o que este lançamento implica sobre o progresso do DeepSeek em direção a um modelo futuro referido nos rumores como V4 ou R2. Observamos que a DeepSeek lançou anteriormente o modelo final construído em sua arquitetura V2 em 10 de dezembro de 2024, apenas duas semanas antes do lançamento da V3.
70,8K