模型發布2026年4月6日DeepSeek V4正式發布:1兆參數MoE模型,開放權重與成本效益兼具DeepSeek推出V4版本,採用1兆參數的專家混合模型(MoE),權重採用Apache 2.0開源授權,訓練成本僅520萬美元,性能媲美美國尖端模型,為開源AI模型注入新動力。 #DeepSeek #MoE模型 #開源模型