DeepSeek V3小版本大升級:推理、前端開發(fā)加強 這些能力超越GPT-4.5
3月25日消息,今晚,DeepSeek官宣,DeepSeek V3模型已完成小版本升級。
目前版本號為DeepSeek-V3-0324,用戶登錄官方網頁、App、小程序進入對話界面后,關閉深度思考即可體驗,API 接口和使用方式保持不變。
雖然是小版本更新,但從反饋來看,這次升級帶來的性能提升卻相當顯著,特別是在前端開發(fā)、數學推理和上下文理解方面有了明顯進步。
據了解,新版V3模型借鑒DeepSeek-R1模型訓練過程中所使用的強化學習技術,大幅提高了在推理類任務上的表現(xiàn)水平,在數學、代碼類相關評測集上取得了超過GPT-4.5的得分成績。
同時,在HTML等代碼前端任務上,新版V3模型生成的代碼可用性更高,視覺效果也更加美觀、富有設計感。
在中文寫作任務方面,新版V3模型基于R1的寫作水平進行進一步優(yōu)化,同時特別提升了中長篇文本創(chuàng)作的內容質量。
此外,新版V3模型可以在聯(lián)網搜索場景下,對于報告生成類指令輸出內容更為詳實準確、排版更加清晰美觀的結果。
其他方面,該模型在工具調用、角色扮演、問答閑聊等方面也得到了一定幅度的能力提升。
據DeepSeek介紹,DeepSeek-V3-0324與之前的DeepSeek-V3使用同樣的base模型,僅改進了后訓練方法。
私有化部署時只需更新checkpoint和tokenizer_config.json(tool calls 相關變動)。
模型參數約660B,開源版本上下文長度為128K(網頁端、App和API提供64K上下文)。
與DeepSeek-R1保持一致,此次DeepSeek開源倉庫(包括模型權重)統(tǒng)一采用MIT License,并允許用戶利用模型輸出、通過模型蒸餾等方式訓練其他模型。