Argomenti di tendenza
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek lancia V3.1, unificando V3 e R1 in un modello ibrido di ragionamento con un incremento incrementale dell'intelligenza
Incremento dell'intelligenza incrementale: I risultati iniziali di benchmarking per DeepSeek V3.1 mostrano un Indice di Intelligenza Analitica Artificiale di 60 in modalità ragionamento, in aumento rispetto al punteggio di 59 di R1. In modalità non ragionamento, V3.1 ottiene un punteggio di 49, un incremento maggiore rispetto al punteggio precedente di V3 0324 di 44. Questo lascia V3.1 (ragionamento) dietro l'ultimo Qwen3 235B 2507 di Alibaba (ragionamento) - DeepSeek non ha ripreso il comando.
Ragionamento ibrido: @deepseek_ai è passato per la prima volta a un modello di ragionamento ibrido - supportando sia modalità di ragionamento che non ragionamento. Il passaggio di DeepSeek a un modello di ragionamento ibrido unificato imita l'approccio adottato da OpenAI, Anthropic e Google. È interessante notare, tuttavia, che Alibaba ha recentemente abbandonato l'approccio ibrido che preferiva per Qwen3 con i loro rilasci separati dei modelli di ragionamento e istruzione di Qwen3 2507.
Chiamata di funzione / utilizzo di strumenti: Sebbene DeepSeek affermi di aver migliorato la chiamata di funzione per il modello, DeepSeek V3.1 non supporta la chiamata di funzione quando è in modalità ragionamento. Questo limiterà sostanzialmente la sua capacità di supportare flussi di lavoro agentici con requisiti di intelligenza, inclusi gli agenti di codifica.
Utilizzo dei token: DeepSeek V3.1 ottiene punteggi incrementali più alti in modalità ragionamento rispetto a DeepSeek R1 e utilizza leggermente meno token nei valutazioni che utilizziamo per l'Indice di Intelligenza Analitica Artificiale. In modalità non ragionamento, utilizza leggermente più token rispetto a V3 0324 - ma comunque diverse volte meno rispetto alla sua stessa modalità di ragionamento.
API: L'API di prima parte di DeepSeek ora serve il nuovo modello DeepSeek V3.1 sia sui loro endpoint di chat che di ragionamento - cambiando semplicemente se il token di pensiero finale </think> è fornito al modello nel template di chat per controllare se il modello ragionerà.
Architettura: DeepSeek V3.1 è architettonicamente identico ai precedenti modelli V3 e R1, con 671B di parametri totali e 37B di parametri attivi.
Implicazioni: Consiglieremmo cautela nel fare qualsiasi assunzione su ciò che questa release implica riguardo ai progressi di DeepSeek verso un futuro modello indicato nei rumors come V4 o R2. Notiamo che DeepSeek ha precedentemente rilasciato il modello finale costruito sulla loro architettura V2 il 10 dicembre 2024, solo due settimane prima di rilasciare V3.


70,79K
Principali
Ranking
Preferiti