← 返回新聞列表

智譜 GLM-5:首個完全在華為昇騰晶片上訓練的前沿級模型,零 NVIDIA 依賴

744B 參數稀疏 MoE 架構、28.5 萬億 tokens 訓練量、MIT 開源許可——智譜 AI 用華為昇騰晶片證明了前沿 AI 模型不再需要 NVIDIA。這不僅是一次技術突破,更是中美科技脫鉤進程中的地緣政治分水嶺。

2026 年 2 月 20 日,智譜 AI 正式發佈 GLM-5——一個擁有 7440 億參數的稀疏混合專家(Mixture of Experts, MoE)大型語言模型。這個數字本身已經令人矚目,但真正改寫歷史的是另一個事實:GLM-5 完全在華為昇騰(Ascend)晶片上訓練完成,在整個訓練過程中沒有使用任何一顆 NVIDIA GPU。這是全球範圍內,首個在非 NVIDIA 硬體上訓練出來的前沿級模型,其意義遠遠超越了一組基準測試分數。

更令人意外的是,智譜 AI 選擇以 MIT 許可證將 GLM-5 完全開源,並以比同類模型低 5 至 8 倍的定價提供 API 服務。這篇由 184 名來自智譜 AI 和清華大學的研究者合著的技術報告(arXiv: 2602.15763),記錄了中國 AI 產業在硬體制裁壓力下走出的一條全新道路。

技術架構深度剖析:744B 稀疏 MoE 的設計哲學

為何選擇稀疏 MoE

GLM-5 採用了 744B 總參數的稀疏 MoE 架構,其中每次推理只啟動約 400 億(40B)活躍參數。這一設計選擇絕非偶然,而是深思熟慮的工程權衡結果。

稀疏 MoE 的核心優勢在於它解耦了模型容量與計算成本之間的線性關係。在傳統的稠密(dense)模型中,參數量的增加直接導致計算量的等比例增長——一個 700B 的稠密模型在每次推理時都需要激活全部 700B 參數,其計算成本令人望而卻步。而 MoE 架構通過引入一個路由機制(router),在每次前向傳播中只選擇性地啟動一小部分「專家」(expert)模組,使得模型能夠在保持巨大知識容量的同時,將實際計算成本控制在可承受的範圍內。

GLM-5 的 40B 活躍參數意味着,儘管模型的「知識庫」規模達到 744B 參數的級別,但每次推理的計算開銷大致相當於一個 40B 的稠密模型。這一效率優勢對於在華為昇騰晶片上進行訓練尤為關鍵——昇騰的單卡算力仍然落後於 NVIDIA 的最新旗艦 GPU,而 MoE 架構通過大幅降低活躍計算量,有效地縮小了這一硬體差距的實際影響。

DeepSeek Sparse Attention 與 200K 上下文窗口

GLM-5 採用了 DeepSeek 提出的稀疏注意力機制(DeepSeek Sparse Attention),將上下文窗口擴展至 200,000 tokens。這一技術借鑑值得特別關注——它表明中國 AI 實驗室之間正在形成一種獨特的「技術互援」生態:各家公司在激烈商業競爭的同時,會選擇性地採用和改進競爭對手發佈的開源技術。

傳統的全注意力(full attention)機制的計算複雜度隨着序列長度呈二次方增長,這使得超長上下文的處理在計算上幾乎不可行。DeepSeek Sparse Attention 通過動態識別每個 token 需要關注的關鍵上下文片段,將大部分不相關的 token 對排除在注意力計算之外,從而將複雜度從 O(n^2) 降低至接近 O(n log n) 的水平。GLM-5 在此基礎上進行了針對昇騰晶片架構的深度優化,使得 200K 上下文在推理時的延遲保持在可接受的範圍內。

200K tokens 的上下文窗口意味着 GLM-5 可以一次性處理約 15 萬中文字符的內容——這足以容納一部中等篇幅的學術專著、數十份合約文件、或者一個完整的中型軟體項目代碼庫。

GLM-5 核心技術規格

  • 總參數量:744B(稀疏 MoE 架構)
  • 活躍參數量:40B(每次推理)
  • 訓練數據量:28.5 萬億 tokens
  • 上下文窗口:200,000 tokens(DeepSeek Sparse Attention)
  • 訓練硬體:華為昇騰(Ascend)晶片,零 NVIDIA 依賴
  • 開源許可:MIT License
  • 技術報告:arXiv: 2602.15763,184 名合著者
  • SWE-bench Verified:77.8%
  • AIME 2026:92.7%
  • GPQA-Diamond:86.0%

異步代理強化學習:訓練範式的創新

GLM-5 在訓練方法論上的另一項重要創新,是其異步代理強化學習(asynchronous agent RL)基礎設施。傳統的大型語言模型強化學習流程——無論是 RLHF(Reinforcement Learning from Human Feedback)還是 DPO(Direct Preference Optimization)——都採用同步的生成-訓練管線:模型首先生成一批回應,收集反饋後再進行參數更新,然後再生成下一批回應。這種同步流程的瓶頸在於生成和訓練階段無法並行,導致大量算力在等待中被浪費。

GLM-5 的異步代理 RL 架構徹底解耦了生成過程與訓練過程。生成端和訓練端作為獨立的子系統並行運行——生成端持續產出新的回應和代理交互軌跡,訓練端則異步地消費這些數據進行參數更新。這種設計不僅顯著提高了算力利用率,更重要的是,它為代理(agent)場景下的強化學習打開了新的可能性。在代理場景中,模型需要與外部環境進行多輪交互(例如執行代碼、查閱文檔、調用 API),每次交互都涉及不確定的等待時間。異步架構使得訓練流程不再受限於單個代理軌跡的完成時間,從而能夠在相同的時間內處理更多的訓練數據。

這一訓練範式的創新,直接體現在了 GLM-5 在 SWE-bench Verified 上 77.8% 的表現中——這個基準測試要求模型像一個軟體工程師一樣,獨立完成真實 GitHub 代碼倉庫中的 bug 修復任務,涉及理解代碼庫結構、定位問題、編寫修復代碼並驗證正確性等多個步驟。

基準測試解讀:從「刷分」到「能力邊界」

GLM-5 在三個關鍵基準測試上的表現值得仔細分析。

SWE-bench Verified 的 77.8% 得分意味着 GLM-5 在真實軟體工程任務中的成功率已接近八成。這不是傳統的代碼生成測試——它要求模型理解完整的代碼倉庫上下文、識別問題根源、並產出可通過測試的修復補丁。這一分數使 GLM-5 躋身全球最頂尖的代碼代理模型行列。

AIME 2026(美國邀請數學考試)的 92.7% 得分則展示了 GLM-5 在複雜數學推理方面的能力。AIME 是面向美國頂尖高中數學生的競賽級考試,題目涵蓋代數、幾何、組合數學和數論等多個領域,要求深度的邏輯推理和創造性的問題求解能力。GLM-5 在這項測試中超過九成的正確率,標誌着大型語言模型的數學推理能力已經進入了一個新的層級。

GPQA-Diamond 的 86.0% 得分衡量的是模型在研究生水平的科學問題上的表現——這些問題由各領域的博士專家撰寫,即使是非本專業的專家也難以正確回答。GLM-5 在這項測試中的表現,證明了其知識深度已達到專業研究者的水平。

「GLM-5 的意義不在於它在某個基準測試上超越了某個對手幾個百分點。它的意義在於,這些前沿水準的分數是在華為昇騰晶片上,而非 NVIDIA GPU 上實現的。這從根本上改變了全球 AI 算力供應鏈的博弈邏輯。」

華為昇騰的戰略突破:硬體自主的分水嶺

從「堪用」到「前沿」的跨越

在 GLM-5 之前,華為昇騰晶片在 AI 訓練領域的定位是「堪用但非最優」。中國的 AI 實驗室在過去幾年中逐步在昇騰平台上進行了規模不等的訓練實驗,但大多數前沿模型的訓練仍然依賴庫存的 NVIDIA A100 或通過各種渠道獲取的 H100 晶片。華為昇騰被視為一個「備選方案」,而非首選的訓練平台。

GLM-5 的成功徹底改變了這一局面。它證明了昇騰晶片不僅能夠支撐前沿級模型的完整訓練流程,而且訓練出來的模型在基準測試上的表現可以與在 NVIDIA 頂級 GPU 上訓練的模型相媲美。這是一個質的飛躍——從「可以訓練模型」到「可以訓練最好的模型」之間的距離,遠大於它在紙面規格上的差異所暗示的。

這一突破背後的關鍵在於軟體棧的成熟。硬體的性能固然重要,但決定 AI 訓練效率的往往是軟體層——編譯器優化、算子庫效率、分散式訓練框架的通訊效率、混合精度訓練的穩定性等等。智譜 AI 在技術報告中詳細描述了他們為昇騰平台進行的大量軟體優化工作,這些工作的價值可能不亞於昇騰硬體本身的改進。

對 NVIDIA 壟斷地位的衝擊

NVIDIA 在全球 AI 訓練晶片市場的壟斷地位,長期以來被視為不可撼動。這一壟斷不僅基於硬體性能的領先,更基於 CUDA 軟體生態系統的深厚護城河——全球數百萬 AI 研究者和工程師的工具鏈、代碼庫和工作流程都深度綁定在 CUDA 之上。切換到其他平台意味着巨大的遷移成本和生產力損失。

GLM-5 在昇騰平台上的成功,為這座護城河開闢了第一道可見的裂縫。它證明了一個關鍵命題:在足夠強大的工程動力(以及足夠強大的地緣政治壓力)驅動下,CUDA 生態的鎖定效應是可以被克服的。雖然目前這一突破主要局限於中國市場的特殊環境——中國 AI 公司在美國的出口管制下別無選擇,必須發展替代方案——但它為全球其他尋求算力供應多元化的國家和企業提供了一個有力的參考案例。

對 NVIDIA 而言,短期的財務影響或許有限——中國市場的高端 GPU 銷售已經因為出口管制而大幅萎縮。但長期而言,GLM-5 的成功可能催化一個更加多元化的 AI 晶片生態系統的形成。如果更多的模型開發者開始認真考慮非 NVIDIA 平台——不僅僅是華為昇騰,還包括 AMD、Intel、Google TPU 以及各類 AI 晶片初創公司的產品——NVIDIA 數據中心業務目前超過 80% 的市場份額將面臨前所未有的侵蝕壓力。

地緣政治分析:晶片禁令的意外後果

美國出口管制的戰略悖論

美國自 2022 年起對中國實施的高端 AI 晶片出口管制,其政策目標是延緩中國在 AI 領域的發展速度。從短期來看,這一政策確實達到了部分效果——中國 AI 公司在獲取最新一代 NVIDIA GPU 方面遇到了實質性的障礙。

然而,GLM-5 的誕生揭示了出口管制的一個根本性戰略悖論:禁令在限制中國獲取美國晶片的同時,也為中國發展自主晶片生態系統提供了最強烈的動機和最充分的理由。如果中國的 AI 公司能夠輕鬆購買 NVIDIA GPU,它們為什麼要投入大量資源去適配和優化華為昇騰這樣的國產替代方案?正是出口管制的壓力,迫使像智譜 AI 這樣的公司不得不認真對待昇騰平台,並在實踐中推動了昇騰軟體生態的快速成熟。

這是技術制裁領域的經典困境:制裁若過於溫和,則起不到實質性的延緩效果;制裁若過於嚴厲,則會迫使被制裁方加速自主替代,最終反而削弱制裁方的長期影響力。GLM-5 的成功表明,美國的晶片禁令可能正在接近(甚至已經越過)這一困境的臨界點。

中美 AI 技術生態的加速分叉

GLM-5 標誌着中美 AI 技術生態分叉的一個新階段。在此之前,中國 AI 公司在算法和模型層面已經展示了與矽谷同行競爭的能力,但在底層硬體上仍然高度依賴美國供應鏈。GLM-5 首次證明了中國 AI 可以在硬體和軟體兩個層面同時實現自主——這意味着一條完全獨立於美國技術棧的 AI 發展路徑正在成形。

這種分叉的長遠影響深遠。它可能導致全球 AI 生態系統分裂為兩個相對獨立的技術體系:以 NVIDIA CUDA 為核心的西方體系,和以華為昇騰(及其軟體生態 CANN)為核心的中國體系。對於香港這樣處於兩大技術體系交匯點的城市而言,如何在兩個生態之間靈活切換和橋接,將成為一個日益重要的戰略課題。

商業格局:上市公司的開源博弈

首家發佈前沿模型的上市 AI 公司

GLM-5 的發佈伴隨着一個常被忽略但意義重大的事實:智譜 AI 是全球第一家發佈前沿級 AI 模型的上市公司。智譜 AI 於 2026 年 1 月在港交所上市,通過 IPO 募資 5.58 億美元,估值達到 71 億美元。這與 OpenAI、Anthropic、DeepSeek 等仍然處於私募融資階段的同行形成了鮮明對比。

上市身份為智譜 AI 帶來了獨特的優勢和約束。優勢方面,公開市場的融資渠道使智譜 AI 不再依賴風險投資基金的持續注資,擁有了更大的戰略自主權。GLM-5 發佈後,智譜 AI 股價單日飆升 43%,自 1 月上市以來累計漲幅已達到約四倍。市場用真金白銀表達了對 GLM-5 技術突破的認可。

約束方面,上市公司需要面對更嚴格的信息披露要求和季度業績壓力。將旗艦模型以 MIT 許可證完全開源、同時以遠低於市場水平的價格提供 API 服務——這一策略在私募公司中或許不會引起太多爭議,但在上市公司的框架下,管理層需要向公開市場的投資者解釋:如何在大規模開源的同時實現可持續的商業回報?

MIT 許可證與低價策略的深層邏輯

智譜 AI 選擇 MIT 許可證——這是最寬鬆的開源許可證之一,允許任何人不受限制地使用、修改和商業化 GLM-5——背後有着清晰的戰略考量。

首先,MIT 開源是建立開發者生態系統的最快途徑。在 AI 模型日益同質化的競爭環境中,技術性能的領先往往是短暫的,而圍繞模型建立的開發者社區和應用生態才是持久的競爭優勢。GLM-5 的 MIT 許可證消除了開發者採用的所有法律障礙,為快速建立生態系統奠定了基礎。

其次,5 至 8 倍的價格優勢直接瞄準了當前 AI API 市場的痛點。對於大量中小型企業和個人開發者而言,OpenAI 和 Anthropic 的 API 定價仍然是一個顯著的成本負擔。智譜 AI 的低價策略不僅是為了搶佔市場份額,更是為了擴大 AI 應用的總體市場規模——通過降低價格門檻,讓更多原本因成本而無法部署 AI 的應用場景成為可能。

智譜 AI 資本市場表現

  • 上市時間:2026 年 1 月,港交所(18C 章節)
  • IPO 募資:5.58 億美元
  • IPO 估值:71 億美元
  • GLM-5 發佈後股價:單日上漲 43%
  • 上市以來累計表現:股價上升約 4 倍
  • API 定價策略:較同類模型低 5-8 倍

從「氛圍編程」到「代理工程」:範式轉移的信號

GLM-5 技術報告中提出的一個概念值得特別關注:從「vibe coding」(氛圍編程)到「agentic engineering」(代理工程)的範式轉移。

所謂「氛圍編程」,是 2025 年以來流行的一種 AI 輔助開發方式——開發者向 AI 模型描述自己想要的功能或效果(即「氛圍」),模型據此生成代碼。這種方式對於快速原型設計和小型項目非常有效,但在面對大型、複雜的軟體工程任務時,往往力不從心。問題的根源在於,「氛圍編程」本質上仍然是一個單輪的人機交互模式——人類提出需求,模型一次性交付代碼。

GLM-5 倡導的「代理工程」則是一種根本不同的範式。在這種模式下,AI 不再是一個被動的代碼生成器,而是一個能夠自主規劃任務、瀏覽代碼庫、調試錯誤、執行測試、並根據結果迭代改進的工程代理。GLM-5 在 SWE-bench Verified 上 77.8% 的表現正是這一範式的具體體現——模型需要像一個真正的軟體工程師一樣,獨立完成從問題理解到修復驗證的完整工作流。

如果這一範式轉移成為主流,其影響將遠超軟體開發領域。它預示着 AI 從「工具」向「代理」的本質性進化——AI 不再僅僅增強人類的能力,而是開始承擔人類工作流中越來越完整的環節。對於企業而言,這意味着需要重新思考人類員工與 AI 代理之間的分工模式;對於 AI 研究者而言,這意味着評估模型能力的標準需要從「單輪生成質量」轉向「多步驟任務完成率」。

對香港的啟示:兩個技術體系的橋樑

算力供應鏈的多元化機遇

GLM-5 證明華為昇騰晶片能夠支撐前沿模型訓練,這為香港的數據中心和雲計算產業帶來了新的可能性。在美國出口管制持續收緊的背景下,香港企業在獲取 NVIDIA 最新一代 GPU 方面面臨日益增大的不確定性。華為昇騰作為一個經過前沿模型驗證的替代方案,為香港的算力基礎設施建設提供了額外的選擇。

開源模型生態的戰略價值

GLM-5 的 MIT 開源許可對香港的科技初創企業和研究機構尤為重要。它意味着任何一家香港公司都可以自由地基於 GLM-5 構建商業應用,而無需擔心授權費用或使用限制。結合智譜 AI 低至同類模型 5-8 倍的 API 定價,香港企業部署前沿 AI 能力的經濟門檻正在大幅降低。

金融市場的連鎖效應

作為智譜 AI 的上市地,港交所直接受益於 GLM-5 的成功。智譜 AI 股價在 GLM-5 發佈後單日飆升 43%、上市以來累計漲幅達四倍的表現,不僅提振了港股 AI 板塊的整體估值,更鞏固了港交所作為中國 AI 企業首選上市地的市場地位。隨着更多中國 AI 公司考慮在港上市,GLM-5 的成功為港交所 18C 章節的吸引力提供了一個最具說服力的案例。

「GLM-5 的發佈重新定義了三個核心假設:前沿 AI 模型不一定需要 NVIDIA 晶片;前沿 AI 模型不一定需要閉源授權;前沿 AI 模型不一定需要矽谷的資源和生態。當這三個假設同時被顛覆時,全球 AI 產業的格局正在發生不可逆轉的重構。」

前路展望:GLM-5 之後的棋局

GLM-5 的發佈並不是終點,而是一系列連鎖反應的起點。

在技術層面,GLM-5 驗證了華為昇騰平台訓練前沿模型的可行性,這將鼓勵更多中國 AI 實驗室將訓練工作負載遷移至昇騰平台。DeepSeek、阿里巴巴、位元組跳動等公司正在密切關注 GLM-5 的訓練效率數據——如果昇騰平台的性價比能夠達到可接受的水平,我們可能在未來一到兩年內看到中國頂尖 AI 實驗室全面擁抱國產晶片。

在地緣政治層面,GLM-5 將成為中美科技博弈中被反覆引用的案例。對於支持繼續加強出口管制的美國鷹派而言,GLM-5 證明了中國正在成功規避制裁,因此需要更加嚴厲的措施。但對於質疑管制效果的聲音而言,GLM-5 恰恰證明了當前的管制策略正在適得其反——它不僅未能阻止中國的 AI 發展,反而加速催熟了中國的自主晶片生態。這場政策辯論的走向,將對全球 AI 產業的發展格局產生深遠影響。

在商業層面,GLM-5 的 MIT 開源和低價策略將進一步加劇全球 AI 模型市場的價格壓力。當一個前沿級模型以免費開源加低價 API 的組合進入市場時,那些依賴高定價策略維持營收的 AI 公司將不得不重新審視其商業模式的可持續性。AI 模型正在加速走向「大宗商品化」(commoditization)——如果模型本身的差異化越來越小、價格越來越低,價值將加速向應用層和數據層遷移。

GLM-5 的 184 名合著者在技術報告中用 744B 個參數和 28.5 萬億個 tokens 回答了一個被問了三年的問題:沒有 NVIDIA,中國能否訓練出前沿級的 AI 模型?答案是明確的。下一個問題是:這將如何重塑全球 AI 產業的權力版圖?這個問題的答案,正在以比所有人預期都更快的速度浮現。

本文要點總結

  • 智譜 AI 發佈 GLM-5,744B 參數稀疏 MoE 模型(40B 活躍參數),完全在華為昇騰晶片上訓練,零 NVIDIA 依賴——這是全球首次
  • 基準測試達到前沿水平:SWE-bench Verified 77.8%、AIME 2026 92.7%、GPQA-Diamond 86.0%
  • 採用 DeepSeek Sparse Attention 實現 200K 上下文窗口,引入異步代理強化學習基礎設施解耦生成與訓練
  • 以 MIT 許可證完全開源,API 定價較同類模型低 5-8 倍,加速 AI 模型大宗商品化趨勢
  • 作為首家發佈前沿模型的上市公司,智譜 AI 港股表現亮眼:GLM-5 發佈後股價單日飆升 43%,上市以來漲幅達四倍
  • 地緣政治意義重大:證明美國晶片禁令無法阻止中國訓練前沿模型,中美 AI 技術生態加速分叉
  • 提出從「氛圍編程」到「代理工程」的範式轉移,預示 AI 從工具向代理的本質性進化