Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
DeepSeek ra mắt V3.1, hợp nhất V3 và R1 thành một mô hình lý luận lai với sự gia tăng trí tuệ theo từng bước
Gia tăng trí tuệ theo từng bước: Kết quả đánh giá ban đầu cho DeepSeek V3.1 cho thấy Chỉ số Trí tuệ Phân tích Nhân tạo là 60 trong chế độ lý luận, tăng từ điểm số 59 của R1. Trong chế độ không lý luận, V3.1 đạt điểm 49, một sự gia tăng lớn hơn so với điểm số 44 của V3 0324 trước đó. Điều này khiến V3.1 (lý luận) tụt lại phía sau Qwen3 235B 2507 (lý luận) mới nhất của Alibaba - DeepSeek vẫn chưa lấy lại vị thế dẫn đầu.
Lý luận lai: @deepseek_ai đã chuyển sang mô hình lý luận lai lần đầu tiên - hỗ trợ cả chế độ lý luận và không lý luận. Việc DeepSeek chuyển sang mô hình lý luận lai thống nhất mô phỏng cách tiếp cận của OpenAI, Anthropic và Google. Tuy nhiên, điều thú vị là Alibaba gần đây đã từ bỏ cách tiếp cận lai mà họ ưa chuộng cho Qwen3 với các phiên bản riêng biệt của các mô hình lý luận và hướng dẫn Qwen3 2507.
Gọi hàm / sử dụng công cụ: Trong khi DeepSeek tuyên bố cải thiện việc gọi hàm cho mô hình, DeepSeek V3.1 không hỗ trợ gọi hàm khi ở chế độ lý luận. Điều này có thể hạn chế đáng kể khả năng hỗ trợ các quy trình làm việc có yêu cầu trí tuệ, bao gồm cả trong các tác nhân lập trình.
Sử dụng token: DeepSeek V3.1 ghi điểm cao hơn một chút trong chế độ lý luận so với DeepSeek R1, và sử dụng ít token hơn một chút trong các đánh giá mà chúng tôi sử dụng cho Chỉ số Trí tuệ Phân tích Nhân tạo. Trong chế độ không lý luận, nó sử dụng nhiều token hơn một chút so với V3 0324 - nhưng vẫn ít hơn nhiều lần so với trong chế độ lý luận của chính nó.
API: API của bên thứ nhất của DeepSeek hiện phục vụ mô hình DeepSeek V3.1 mới trên cả hai điểm cuối trò chuyện và lý luận - chỉ cần thay đổi xem token suy nghĩ cuối cùng </think> có được cung cấp cho mô hình trong mẫu trò chuyện hay không để kiểm soát xem mô hình có lý luận hay không.
Kiến trúc: DeepSeek V3.1 về kiến trúc là giống hệt với các mô hình V3 và R1 trước đó, với tổng số tham số là 671B và 37B tham số hoạt động.
Hệ quả: Chúng tôi khuyên bạn nên thận trọng khi đưa ra bất kỳ giả định nào về những gì bản phát hành này ngụ ý về tiến trình của DeepSeek hướng tới một mô hình tương lai được đề cập trong các tin đồn là V4 hoặc R2. Chúng tôi lưu ý rằng DeepSeek đã phát hành mô hình cuối cùng được xây dựng trên kiến trúc V2 của họ vào ngày 10 tháng 12 năm 2024, chỉ hai tuần trước khi phát hành V3.


70,79K
Hàng đầu
Thứ hạng
Yêu thích