模型發布
Mistral 發布 Small 4:119B 參數開源 MoE 模型,整合推理、視覺與程式碼三合一
Mistral AI 正式發布 Mistral Small 4,這是一款 1190 億參數的開源混合專家(MoE)模型,以 Apache 2.0 授權釋出,將推理、視覺語言理解與代理程式碼能力整合至單一模型,同時支援可調節的推理強度參數,大幅降低企業部署成本。
Mistral AI 正式發布 Mistral Small 4,這是一款 1190 億參數的開源混合專家(MoE)模型,以 Apache 2.0 授權釋出,將推理、視覺語言理解與代理程式碼能力整合至單一模型,同時支援可調節的推理強度參數,大幅降低企業部署成本。