DeepSeek-V3.1發布開源,更強Agent 能力,API調用價格將調整快訊
同時支持思考模式與非思考模式,DeepSeek-V3.1 相比之前的 DeepSeek 系列模型有明顯提高,DeepSeek-V3.1 思考模式能在更短時間內給出答案。
【TechWeb】8月21日消息,DeepSeek正式發布并開源 DeepSeek-V3.1。
本次升級包含以下主要變化:
混合推理架構,同時支持思考模式與非思考模式;
支持更長的文本生成與處理,當前上下文長度已拓展至 128k;
更高的思考效率,相比 DeepSeek-R1-0528,DeepSeek-V3.1 思考模式能在更短時間內給出答案;
更強的 agent 能力,通過 Post-Training 優化,新模型在工具使用與智能體任務中的表現有較大提升。
官方網頁、APP、小程序、API 開放平臺所調用模型均已同步更新。
用戶可以通過點擊對話框中的“深度思考”按鈕,實現思考模式與非思考模式的自由切換。
API 接口調用方式保持不變,并增加了對 Anthropic API 格式的支持,開發者們可以輕松接入Claude Code 框架。
據介紹,在代碼修復測評 SWE 與命令行終端環境下的復雜任務(Terminal-Bench)測試中,DeepSeek-V3.1 相比之前的 DeepSeek 系列模型有明顯提高。
DeepSeek-V3.1 在多項搜索評測指標上取得了較大提升。在需要多步推理的復雜搜索測試(browsecomp)與多學科專家級難題測試(HLE)上,DeepSeek-V3.1 性能已大幅領先 R1-0528。
測試結果顯示,經過思維鏈壓縮訓練后,V3.1-Think 在輸出 token 數減少 20%-50% 的情況下,各項任務的平均表現與 R1-0528 持平。
V3.1 在非思考模式下的輸出長度也得到了有效控制,相比于 DeepSeek-V3-0324 ,能夠在輸出長度明顯減少的情況下保持相同的模型性能。
V3.1的Base模型在V3的基礎上重新做了外擴訓練,一共增加訓練了 840B tokens。目前Base 模型與后訓練模型均已在 Huggingface 與魔搭開源。
另外,北京時間 2025 年 9 月 6 日凌晨起,對 DeepSeek 開放平臺API接口調用價格進行調整:

1.TMT觀察網遵循行業規范,任何轉載的稿件都會明確標注作者和來源;
2.TMT觀察網的原創文章,請轉載時務必注明文章作者和"來源:TMT觀察網",不尊重原創的行為TMT觀察網或將追究責任;
3.作者投稿可能會經TMT觀察網編輯修改或補充。