DeepSeek近日發布了V4版本,採用1兆參數的專家混合模型(MoE),充分平衡了模型規模與運算效率。V4版本所有權重均採用Apache 2.0授權開放,促進社群開發與技術共享。
該模型訓練總成本約為520萬美元,遠低於其他前沿模型,卻能在多項任務中達到與美國頂尖模型相當的效能。
DeepSeek V4的推出,不僅展現了高效能與低成本並存的可能,也強化了開源AI生態的競爭力。有望成為業界推廣可持續及開放式AI技術的重要里程碑。
DeepSeek推出V4版本,採用1兆參數的專家混合模型(MoE),權重採用Apache 2.0開源授權,訓練成本僅520萬美元,性能媲美美國尖端模型,為開源AI模型注入新動力。
DeepSeek近日發布了V4版本,採用1兆參數的專家混合模型(MoE),充分平衡了模型規模與運算效率。V4版本所有權重均採用Apache 2.0授權開放,促進社群開發與技術共享。
該模型訓練總成本約為520萬美元,遠低於其他前沿模型,卻能在多項任務中達到與美國頂尖模型相當的效能。
DeepSeek V4的推出,不僅展現了高效能與低成本並存的可能,也強化了開源AI生態的競爭力。有望成為業界推廣可持續及開放式AI技術的重要里程碑。