模型發布
Mistral Small 4 架構解析:128 專家 MoE 設計如何用 6B 活躍參數擊敗百億級模型
Mistral AI 發布 Mistral Small 4,採用 128 專家混合架構(MoE),總參數 119B 但每次推理僅啟動 6B 參數。該模型在邏輯推理與程式碼生成基準測試中超越 GPT-OSS 120B,同時輸出長度減少 20%,推理延遲降低 40%。以 Apache 2.0 授權開源。
Mistral AI 發布 Mistral Small 4,採用 128 專家混合架構(MoE),總參數 119B 但每次推理僅啟動 6B 參數。該模型在邏輯推理與程式碼生成基準測試中超越 GPT-OSS 120B,同時輸出長度減少 20%,推理延遲降低 40%。以 Apache 2.0 授權開源。
Mistral AI 發布開源文字轉語音模型 Voxtral TTS,以極小的模型尺寸實現了 90 毫秒的首音延遲(TTFA),僅需不到五秒的語音樣本即可複製自定義聲音。模型支援九種語言,可在智慧手錶等邊緣裝置上運行,以 CC BY NC 4.0 授權開源。
NVIDIA 在 GTC 2026 發布 Nemotron 3 開源模型系列,旗艦款 Nemotron 3 Super 在代理 AI 基準測試 PinchBench 上得分 85.6%,居同類開源模型之首。NVIDIA 同步宣布聯合 Mistral、LangChain 等成立「Nemotron 聯盟」,共同開發下一代開源前沿模型。
Mistral AI 正式發布 Mistral Small 4,這是一款 1190 億參數的開源混合專家(MoE)模型,以 Apache 2.0 授權釋出,將推理、視覺語言理解與代理程式碼能力整合至單一模型,同時支援可調節的推理強度參數,大幅降低企業部署成本。