header-langage
简体中文
繁體中文
English
Tiếng Việt
한국어
日本語
ภาษาไทย
Türkçe
掃碼下載APP

最強開源模型DeepSeek v4終於來了!1.6兆參數模型,MIT許可,長文本顯存壓到V3.2十分之一

動察 Beating 監測,DeepSeek 開源 V4 系列預覽版,MIT 許可,權重已上線 Hugging Face 和 ModelScope。系列含兩款 MoE 模型:V4-Pro 總參數 1.6T、每 token 激活 49B(490 億);V4-Flash 總參數 284B(2840 億)、激活 13B(130 億)。兩款均支持 1M token 上下文。


架構三項升級:混合注意力機制(壓縮稀疏注意力 CSA + 重度壓縮注意力 HCA)大幅降低長上下文開銷,1M 上下文下 V4-Pro 單 token 推理 FLOPs 僅為 V3.2 的 27%,KV 緩存(推理時存儲歷史信息的顯存佔用)僅為 V3.2 的 10%;流形約束超連接 mHC 替代傳統殘差連接,增強跨層信號傳播穩定性;訓練改用 Muon 優化器加速收斂。預訓練數據超 32T token。


後訓練分兩階段:先用 SFT 和 GRPO 強化學習分別訓練各領域專家,再用在線蒸餾統一合併成一個模型。V4-Pro-Max(最高推理力度模式)自稱當前最強開源模型,編碼基準達到頂級,推理和 agent 任務與閉源前沿差距顯著縮小。V4-Flash-Max 在給足思考預算後推理表現接近 Pro,但純知識和複雜 agent 任務上受限於參數規模。權重以 FP4+FP8 混合精度存儲。

举报 糾錯/舉報
糾錯/舉報
提交
新增文庫
僅自己可見
公開
保存
選擇文庫
新增文庫
取消
完成