模型發布
DeepSeek V4正式發布:1兆參數MoE模型,開放權重與成本效益兼具
DeepSeek推出V4版本,採用1兆參數的專家混合模型(MoE),權重採用Apache 2.0開源授權,訓練成本僅520萬美元,性能媲美美國尖端模型,為開源AI模型注入新動力。
DeepSeek推出V4版本,採用1兆參數的專家混合模型(MoE),權重採用Apache 2.0開源授權,訓練成本僅520萬美元,性能媲美美國尖端模型,為開源AI模型注入新動力。
據悉,DeepSeek正計劃將其V4 AI模型遷移至華為芯片平台,以減少對英偉達硬件的依賴。這一轉變反映了中國在AI硬件自主化方面的戰略調整。
2026年第一季度,中國生成式AI備案模型數量突破300個,國家網信辦發布新版AI服務管理細則,DeepSeek、百度文心、阿里通義等開源模型加速在海外傳播。