阿里巴巴 Qwen3.5-397B-A17B:4.3% 激活率的開放權重 MoE 模型如何擊敗萬億參數閉源巨頭
397B 總參數中每次僅啟用 17B——通義千問以 512 專家的極致稀疏架構,在 Apache 2.0 開放授權下,宣稱性能超越自家萬億參數 Qwen3-Max 及 GPT-5.2、Claude Opus 4.5 等頂級閉源模型。
397B 總參數中每次僅啟用 17B——通義千問以 512 專家的極致稀疏架構,在 Apache 2.0 開放授權下,宣稱性能超越自家萬億參數 Qwen3-Max 及 GPT-5.2、Claude Opus 4.5 等頂級閉源模型。
2026 年 2 月,阿里巴巴通義千問(Qwen)團隊發布了一款足以重塑業界認知的模型——Qwen3.5-397B-A17B。這不僅是一個技術參數的更新,更代表著一種全新的 AI 開發哲學:與其無止境地堆疊參數追求規模,不如讓模型學會在恰當的時機調用恰當的能力。在這個閉源模型以萬億參數為傲的時代,Qwen3.5 以僅 4.3% 的參數激活率,用事實證明「少即是多」並非空談。
Qwen3.5-397B-A17B 採用混合專家(Mixture of Experts, MoE)架構,這是近年來大語言模型領域最受矚目的技術路線之一。MoE 的核心理念是:模型不需要在每次推理時動用所有參數,而是根據輸入內容,動態選擇最適合的「專家」子網路來處理。
Qwen3.5 將這一理念推向了新的極致。相較於前代 Qwen3 系列使用 128 個專家的配置,Qwen3.5 將專家數量大幅擴展至 512 個。在每個 token 的推理過程中,路由機制會從 512 個專家中精確挑選 10 個路由專家,再加上 1 個共享專家——後者負責處理所有輸入都需要的通用知識。這意味著在 397B 的龐大總參數中,每次實際參與計算的僅有約 17B,激活比例僅為 4.3%。
這種設計的精妙之處在於:512 個專家各自發展出高度專業化的能力。想像一個擁有 512 位頂尖專家的顧問團隊——面對任何問題,你只需要諮詢最相關的 10 位專家和 1 位通才顧問,就能獲得比讓所有 512 人同時發言更精準的答案。專家數量的增加不是簡單的「堆料」,而是讓每個專家的專業分工更加精細,路由選擇更加精確。
幾個規格特別值得深入探討。首先是 262K 的原生上下文長度。這意味著模型在預訓練階段就已經學會處理超長文本,而非僅透過微調勉強延伸。配合 YaRN(Yet another RoPE extensioN)位置編碼外推技術,上下文可進一步延展至 100 萬 tokens——大約相當於一整套百科全書的篇幅。這對於需要處理大量文檔的企業應用場景至關重要。
其次是 201 種語言的支援,這使 Qwen3.5 成為目前語言覆蓋範圍最廣的開放權重模型之一。對於需要多語種能力的國際企業和跨國機構而言,這意味著單一模型即可處理全球化業務。
第三是原生多模態能力。Qwen3.5 並非在純文本模型基礎上外掛視覺模組,而是從架構設計之初就整合了文字、圖片和影片的處理能力。更值得注意的是其視覺代理(Visual Agent)功能——模型不僅能「看」,還能基於視覺理解執行操作,例如分析網頁截圖後進行互動、解讀複雜圖表並提取數據。這在 AI Agent 應用快速崛起的當下,具有極高的實用價值。
阿里巴巴宣稱 Qwen3.5 在多項基準測試中超越了 GPT-5.2、Claude Opus 4.5 和 Gemini 3 Pro。讓我們逐一審視幾個關鍵數據。
SWE-bench Verified 是衡量 AI 模型解決真實世界軟體工程問題能力的權威基準。76.4 分意味著模型能夠自主解決超過四分之三的真實 GitHub issue——這些不是人為設計的簡單編程題,而是來自 Django、Scikit-learn、Sympy 等知名開源專案的真實 bug 修復和功能實現任務。這一分數如果經過獨立驗證,將標誌著 AI 輔助軟體開發進入了一個新階段。
MMLU-Pro 是 MMLU(Massive Multitask Language Understanding)的進階版本,涵蓋了更廣泛、更深入的知識領域測試。87.8 分表明 Qwen3.5 在跨學科知識理解方面已達到非常高的水準。值得注意的是,MMLU-Pro 引入了更多需要深度推理而非單純記憶的題目,這意味著高分反映的不僅是知識量,更是推理能力。
或許最引人深思的數據是:Qwen3.5-397B-A17B 宣稱超越了阿里巴巴自家的 Qwen3-Max——一個據報擁有萬億級參數的閉源模型。如果屬實,這構成了一個深刻的悖論:一個激活參數僅為 17B 的開放權重模型,打敗了一個運算資源遠超自身的閉源前輩。這不僅是工程上的勝利,更是對「參數量等於能力」這一樸素直覺的有力反駁。
需要謹慎指出的是,上述基準測試成績均來自阿里巴巴官方公布的數據。在 AI 產業,自評基準結果與第三方獨立復現之間存在差異是常見現象。我們建議讀者在獨立評測結果公布前,將這些數字視為參考而非定論。
如果說基準測試成績尚需時間驗證,Qwen3.5 在效率方面的優勢則更為直觀且容易量化。阿里巴巴宣稱,相較於自家 Qwen3-Max,Qwen3.5 的推理成本降低了 60%,推理速度提升了 19 倍。
這兩個數字背後的邏輯是清晰的。MoE 架構的核心優勢就在於:雖然模型總參數量龐大(397B),但每次推理只需計算 17B 參數,運算負擔與一個中型稠密模型相當。相比之下,萬億級的 Qwen3-Max 在每次推理時需要調動的計算資源要大得多。
這種效率提升對實際部署的影響是深遠的。以一個日均處理 1,000 萬次 API 呼叫的企業級應用為例,60% 的成本削減意味著每年可節省數百萬甚至數千萬美元的雲端算力開支。而 19 倍的速度提升則意味著用戶等待時間從可能的數秒縮短至亞秒級,直接改善使用體驗。
更重要的是,這種效率優勢對於邊緣部署和本地化部署具有戰略意義。17B 的激活參數量意味著 Qwen3.5 有可能在高端消費級 GPU 集群上進行量化推理,而不需要動輒數百張 A100/H100 的超級計算叢集。這大幅降低了私有化部署的門檻,對於對數據隱私有嚴格要求的金融、醫療、政府等行業尤為關鍵。
Qwen3.5 採用 Apache 2.0 授權,這是開源領域最寬鬆的授權協議之一。它允許任何人——包括商業實體——自由使用、修改和分發模型權重,甚至不需要開源衍生作品。這一決策的戰略意涵值得深入分析。
從市場策略看,Apache 2.0 授權是阿里巴巴建立生態系統的核心手段。當全球開發者基於 Qwen3.5 構建應用和服務時,阿里巴巴的技術棧就成為了事實上的產業標準。即使阿里巴巴不從模型本身直接獲利,它也能透過雲端服務、企業支援、高階 API 等方式實現商業化。
從地緣政治角度看,這是一個精心計算的開放策略。在美國加強對中國 AI 技術出口管制的背景下,開放權重模型成為中國 AI 技術向全球輸出影響力的重要通道。Apache 2.0 授權消除了企業採用的法律顧慮,使得 Qwen3.5 能夠在全球範圍內與 Meta 的 Llama 系列、Mistral 等競爭開發者心智份額。
對於開源 AI 社群而言,一個在性能上宣稱比肩甚至超越頂級閉源模型的 Apache 2.0 模型,其意義不言而喻。它進一步動搖了「最好的模型必須是閉源的」這一假設,為學術研究者和獨立開發者提供了前所未有的研究和開發工具。
Qwen3.5 的發布標誌著大語言模型發展哲學的一次重要轉折。回顧過去幾年的發展軌跡:
2023-2024 年的主流思維是「Scaling Laws」——更多的參數、更多的數據、更多的算力,就能帶來更好的性能。這種思維催生了一系列萬億級參數的「巨獸」模型,也帶來了令人咋舌的訓練和推理成本。
2025 年開始出現轉折。DeepSeek 團隊以有限資源做出世界級模型的實踐,已經開始動搖「資源密集型」路線的壟斷地位。MoE 架構從理論上的優雅概念,逐漸成為主流實踐。
到了 2026 年初,Qwen3.5 的 512 專家、4.3% 激活率設計,將這一趨勢推向了新高度。它明確傳達了一個訊號:未來的模型競爭不是比誰的參數多,而是比誰的參數用得好。
從 128 個專家躍升至 512 個專家,背後反映的是路由機制(Router)和負載均衡(Load Balancing)技術的重大進步。512 個專家意味著路由器在每一步都面臨從 512 個選項中精確挑選 10 個的組合爆炸問題。如何確保每個專家都被充分利用、避免出現「熱門專家過載、冷門專家閒置」的局面,是一個極具挑戰性的工程問題。Qwen 團隊能夠在如此大規模的專家池中實現有效調度,本身就是一項值得關注的技術成就。
如果 Qwen3.5 的性能宣稱得到第三方驗證,那麼閉源模型供應商將面臨前所未有的解釋壓力。當一個免費、開放、可自由部署的模型在性能上與收費的閉源 API 相當甚至更優時,閉源模型的「護城河」——所謂的性能優勢——就會被嚴重侵蝕。
OpenAI、Anthropic 和 Google 這三大閉源模型供應商,將需要越來越多地依賴生態系統、安全性保證、企業級支援和專有功能來維持其商業模式,而非單純的模型性能領先。
事實上,這一趨勢已經顯現。OpenAI 近期加大了對 ChatGPT 產品生態的投入;Anthropic 強調安全對齊和企業合規能力;Google 則將 Gemini 深度整合進其雲端和搜尋生態系統。閉源模型的價值主張正從「我們的模型最強」轉向「我們的整體解決方案最好」。
Meta 的 Llama 系列作為另一個重要的開放權重玩家,也將感受到來自 Qwen3.5 的競爭壓力。在 Apache 2.0(Qwen3.5)與有一定使用限制的 Llama 授權之間,開發者和企業可能會傾向選擇限制更少的前者。
作為國際金融中心和大灣區科技走廊的核心節點,香港在 Qwen3.5 的開放生態中具有獨特的機遇。
首先,Apache 2.0 授權意味著香港的科技公司和初創企業可以無障礙地基於 Qwen3.5 開發商業產品,無需承擔複雜的授權合規成本。這對於資源有限但創意豐富的本地 AI 初創生態而言是一大利好。
其次,Qwen3.5 對 201 種語言的支援——自然包括繁體中文和粵語——使其特別適合香港的多語種業務場景。金融報告分析、法律文件處理、跨境客服等領域,都能從這一能力中直接受益。
第三,17B 的激活參數量降低了本地部署的硬體門檻,這對於數據主權意識日益增強的香港金融和醫療行業尤為重要。企業可以考慮在本地機房部署 Qwen3.5,實現數據不出境的同時享有頂級 AI 能力。
在對 Qwen3.5 持審慎樂觀態度的同時,我們也需要指出幾個尚待觀察的面向:
Qwen3.5-397B-A17B 的發布,是 2026 年 AI 領域的一個重要里程碑事件。它體現的不僅是阿里巴巴通義千問團隊的工程實力,更是整個行業從「參數軍備競賽」向「效率優先」轉型的縮影。
4.3% 的激活率、512 個精細分工的專家、Apache 2.0 的徹底開放、原生多模態能力——這些特徵組合在一起,描繪出了下一代 AI 模型的可能面貌:不是更大,而是更聰明;不是更封閉,而是更開放;不是更昂貴,而是更普惠。
當然,宣稱終究需要實證來支撐。在接下來的數週內,全球的 AI 研究者和開發者將開始大規模測試和評估 Qwen3.5。屆時,我們將能更清楚地判斷:這究竟是開放權重 AI 的一個轉捩點,還是又一輪基準測試數字遊戲。無論結果如何,Qwen3.5 已經為行業設立了一個新的參照系——在這個參照系中,效率、開放性和實用性,與純粹的規模同樣重要。