模型發布

DeepSeek V4正式發布:1兆參數MoE模型,開放權重與成本效益兼具

DeepSeek推出V4版本,採用1兆參數的專家混合模型(MoE),權重採用Apache 2.0開源授權,訓練成本僅520萬美元,性能媲美美國尖端模型,為開源AI模型注入新動力。

DeepSeek近日發布了V4版本,採用1兆參數的專家混合模型(MoE),充分平衡了模型規模與運算效率。V4版本所有權重均採用Apache 2.0授權開放,促進社群開發與技術共享。

該模型訓練總成本約為520萬美元,遠低於其他前沿模型,卻能在多項任務中達到與美國頂尖模型相當的效能。

DeepSeek V4的推出,不僅展現了高效能與低成本並存的可能,也強化了開源AI生態的競爭力。有望成為業界推廣可持續及開放式AI技術的重要里程碑。

返回首頁