Cerebras 完成 10 億美元 H 輪融資估值 230 億:晶圓級引擎挑戰 Nvidia GPU 霸權
總部位於加州 Sunnyvale 的 AI 晶片公司 Cerebras Systems 以獨創的晶圓級引擎(WSE)技術,獲得頂級投資機構 10 億美元押注,正面挑戰 Nvidia 在 AI 運算市場的壟斷地位
總部位於加州 Sunnyvale 的 AI 晶片公司 Cerebras Systems 以獨創的晶圓級引擎(WSE)技術,獲得頂級投資機構 10 億美元押注,正面挑戰 Nvidia 在 AI 運算市場的壟斷地位
在 AI 運算硬體領域,Nvidia 的統治地位長期以來被視為牢不可破。然而,一家來自加州 Sunnyvale 的公司正以一種截然不同的技術哲學,向這座看似不可撼動的堡壘發起挑戰。2026 年 2 月,Cerebras Systems 正式宣佈完成 10 億美元的 H 輪融資,投後估值約達 230 億美元。這筆融資由 Tiger Global 領投,Benchmark、Fidelity、Atreides、Alpha Wave Global、Altimeter、AMD、Coatue 和 1789 Capital 等頂級投資機構聯合參與。這不僅是對 Cerebras 技術路線的重大資本背書,更是 AI 硬體產業格局可能發生根本性轉變的一個重要信號。
此次 H 輪融資的規模和投資者陣容都非常引人注目。領投方 Tiger Global Management 是全球最具影響力的科技投資基金之一,其對 Cerebras 的大手筆押注,表明頂級投資機構越來越認真地看待 Nvidia GPU 以外的 AI 運算替代方案。Tiger Global 此前已成功投資過多家改變行業格局的科技公司,此次領投 Cerebras 是其在 AI 基礎設施領域的一次重要戰略部署。
跟投方的陣容同樣令人矚目。Benchmark 作為矽谷歷史最悠久的頂級風投之一,以其精準的早期投資眼光聞名,其參與為 Cerebras 的技術前景提供了強力背書。Fidelity 的加入則代表了主流機構投資者對 AI 晶片多元化趨勢的認可。Atreides Management 和 Alpha Wave Global 分別代表了新一代對沖基金和亞洲資本對 AI 硬體的重視。Altimeter Capital 在科技成長股投資領域聲譽卓著,Coatue Management 則是近年來最活躍的 AI 領域投資者之一。
尤其值得關注的是 AMD 以策略投資者身份參與本輪融資。作為 Nvidia 在 GPU 市場最大的競爭對手,AMD 投資 Cerebras 的舉動意味深長。這既是一次對潛在合作夥伴的投資,也可以被解讀為建立一個更廣泛的「反 Nvidia 同盟」的戰略信號。在 AI 運算市場,敵人的敵人就是朋友——AMD 和 Cerebras 雖然技術路線不同,但在挑戰 Nvidia 壟斷這一共同目標上有着天然的利益一致性。
1789 Capital 的參與也值得留意,這家基金以投資具有「逆向思維」的公司著稱,其加入進一步凸顯了市場對 AI 硬體領域破壞性創新的渴望。
要理解 Cerebras 為何能獲得如此高的估值和頂級投資者的青睞,必須深入了解其核心技術——晶圓級引擎(Wafer-Scale Engine, WSE)。這項技術代表的是一種與 GPU 截然不同的 AI 運算哲學,其激進程度在半導體行業史上幾乎前所未見。
傳統的半導體製造流程是這樣的:在一片直徑約 300 毫米的矽晶圓上製造數百甚至數千個獨立的晶片,然後將晶圓切割成單個晶片,再經過封裝、測試等步驟投入使用。Nvidia 的 GPU——無論是 H100、H200 還是最新的 B200——都遵循這一流程。即使是目前最大的 AI 晶片,面積也僅佔晶圓的一小部分。
Cerebras 的做法則完全打破了這一範式。其晶圓級引擎將整片矽晶圓——所有 46,225 平方毫米的面積——作為一顆單一的巨型晶片使用。這意味着 WSE 的面積是 Nvidia 最大 GPU 的五十多倍。以最新一代的 WSE-3 為例,它集成了約 4 萬億個晶體管、90 萬個 AI 優化核心,以及 44 GB 的片上 SRAM 記憶體,所有這些元件都在同一片矽基板上,無需透過複雜的互連技術連接多個獨立晶片。
將整片晶圓做成一顆晶片的好處是根本性的。首先,片上通訊的速度和能效遠優於晶片之間的通訊。在傳統的 GPU 叢集中,數據需要通過 PCIe 匯流排、NVLink 或 InfiniBand 等互連技術在多顆 GPU 之間傳輸,每一次跨晶片的數據移動都會帶來延遲和能耗。而在 WSE 上,所有核心之間的通訊都在同一片矽上完成,延遲降低了數個數量級。
其次,44 GB 的片上 SRAM 解決了 AI 運算中最大的瓶頸之一——記憶體頻寬。GPU 架構依賴 HBM(高頻寬記憶體)來存取模型參數和中間數據,而 HBM 的存取延遲仍然是 SRAM 的數十倍。Cerebras 將大量 SRAM 直接放在計算核心旁邊,實現了近乎零延遲的數據存取,這對大型語言模型的推理效能至關重要。
第三,WSE 的架構極大地簡化了 AI 系統的部署複雜度。訓練或部署大型 AI 模型時,傳統方案需要數百甚至數千顆 GPU 通過複雜的網路拓撲連接,軟體層面還需要進行複雜的模型並行和數據並行設計。而 Cerebras 的 CS-3 系統(搭載 WSE-3 的完整計算節點)將這種複雜性大幅降低——在許多場景下,一台 CS-3 就能處理需要整個 GPU 叢集才能完成的工作。
Cerebras 技術路線最有力的商業驗證,莫過於 OpenAI 與其簽署的超過 100 億美元的運算合約。這筆交易涵蓋 ChatGPT 推理(inference)工作負載的相當部分,是 AI 產業歷史上規模最大的運算採購合約之一。
OpenAI 之所以選擇 Cerebras,背後有深層的戰略和技術考量。隨着 ChatGPT 用戶量的爆炸式增長——目前週活躍用戶已超過 4 億——推理運算的需求已遠超訓練運算。在推理場景中,WSE 的低延遲和高吞吐量優勢尤為突出:用戶發送一個請求後,每一毫秒的延遲都直接影響使用體驗,而 Cerebras 的片上架構天然適合這種需要快速響應的場景。
更重要的是,這筆合約反映了 OpenAI 降低對 Nvidia 單一供應商依賴的戰略意圖。在過去兩年中,Nvidia GPU 的供不應求和價格高企一直是所有 AI 公司的痛點。Nvidia 的 H100 一度在二手市場被炒到超過 4 萬美元一顆,而 Nvidia 對大客戶的定價權幾乎是壟斷性的。對 OpenAI 而言,引入 Cerebras 作為重要的運算供應商,不僅能在技術層面獲得推理效能的提升,更能在商業談判中獲得更大的議價空間。
「我們與 Cerebras 的合作不僅僅是一筆採購交易,它代表了我們對 AI 運算基礎設施多元化的戰略承諾。晶圓級引擎在推理場景中展現的效能讓我們印象深刻。」——OpenAI 一位技術主管在談到這筆合約時表示。
這筆百億美元的合約也為 Cerebras 的 IPO 前景注入了強心針。去年秋天,Cerebras 已正式向美國證券交易委員會(SEC)提交了 IPO 申請,而一筆來自全球最受矚目 AI 公司的長期合約,無疑將大幅增強公開市場投資者的信心。
儘管 Cerebras 擁有革命性的技術和令人振奮的商業進展,但必須清醒地認識到,挑戰 Nvidia 是科技產業中難度最高的任務之一。Nvidia 目前掌控着 AI 訓練晶片市場超過 80% 的份額,在某些細分市場(如高端 AI 訓練)的佔有率甚至更高。這種壟斷地位不僅建立在硬體之上,更深深植根於其軟體生態系統。
CUDA——Nvidia 的平行運算平台和程式設計模型——是其最深厚的護城河。過去十五年間,全球數百萬開發者在 CUDA 生態中編寫了海量的 AI 程式碼和函式庫。PyTorch、TensorFlow 等主流 AI 框架的 GPU 加速功能幾乎完全基於 CUDA。這意味着任何想要取代 Nvidia 的競爭者,不僅需要提供性能更優的硬體,還必須解決軟體相容性這一根本性障礙。
Cerebras 對此有清醒的認識,並採取了多管齊下的策略。在軟體層面,其開發了完整的軟體堆疊,包括與主流 AI 框架的相容層,使開發者能夠以較低的遷移成本將工作負載從 GPU 轉移到 WSE。在市場策略上,Cerebras 並未試圖在所有場景中取代 GPU,而是聚焦於 WSE 具有最大優勢的特定工作負載——特別是大模型推理和需要超低延遲的應用場景。
晶圓級引擎面臨的另一個重大挑戰是製造良率。在傳統製程中,一片晶圓上的部分晶片出現缺陷是正常的——有缺陷的晶片會被丟棄,只使用合格的晶片。但當整片晶圓就是一顆晶片時,任何缺陷都可能影響整顆晶片的功能。Cerebras 為此開發了專有的冗餘設計和缺陷容錯技術,使得 WSE 即使存在少量製造缺陷也能正常運作。這一技術突破是 Cerebras 能夠實現量產的關鍵,但隨着製程向更小的節點推進,良率管理的難度也將持續增加。
此外,晶圓級晶片的散熱和供電也是工程挑戰。一顆 WSE-3 的功耗高達數千瓦,需要專門設計的冷卻系統和電源供應方案。Cerebras 的 CS-3 系統為此採用了先進的液冷技術和定製的電源架構,但這也意味着其產品無法像 GPU 那樣靈活地安裝在各種伺服器平台中,客戶需要部署專用的基礎設施。
Cerebras 表示,此次 10 億美元的融資將主要用於三個戰略方向。
首先是加速下一代大型 AI 晶片的研發。半導體產業的競爭本質上是一場技術軍備競賽,停止前進就等於後退。Cerebras 需要在 WSE-3 的基礎上持續推進晶片架構的演進,包括採用更先進的製程節點、提升計算密度、擴大片上記憶體容量等。據業內人士估計,開發一代全新的晶圓級引擎所需的投入可能高達數億美元,這筆融資為其提供了充足的研發資金。
其次是擴展商業合作夥伴關係。OpenAI 的百億美元合約證明了 WSE 在推理場景中的商業價值,Cerebras 需要將這一成功複製到更多的客戶身上。目標客戶群包括其他大型 AI 模型公司、雲端服務提供商、科學計算機構以及政府部門。特別是在國防和情報領域,Cerebras 的全美國設計和製造背景(其晶片由台積電的美國合作夥伴代工)使其在安全審查方面具有優勢。
第三是擴大市場推廣和銷售團隊。從技術驅動的初創公司轉型為成熟的商業企業,Cerebras 需要建立一支能夠與全球大型企業和機構對接的銷售和客戶成功團隊。這一點在其 IPO 進程中尤為重要——公開市場投資者不僅關注技術創新,更看重可預測的營收增長和健全的商業運營體系。
Cerebras 去年秋天提交的 IPO 申請是 AI 晶片領域的一個里程碑事件。如果成功上市,Cerebras 將成為繼 Nvidia 和 AMD 之後,又一家公開交易的 AI 晶片公司,為投資者提供一個直接參與 AI 硬體創新的投資標的。
以 230 億美元的估值計算,Cerebras 的 IPO 規模在科技公司中屬於中大型。關鍵問題在於,公開市場能否接受這一估值。支持者認為,AI 運算市場的總規模正在從數百億美元快速膨脹至數千億美元,即使 Cerebras 只佔據其中很小的份額,也足以支撐數百億美元的市值。懷疑者則指出,Cerebras 面對的是一個由 Nvidia 絕對主導的市場,其商業化進程仍處於相對早期,營收規模與估值之間的差距可能令公開市場投資者望而卻步。
無論如何,OpenAI 百億美元合約的簽署大幅改善了 Cerebras 的 IPO 敘事。一個擁有全球最重要 AI 公司作為錨定客戶的晶片公司,其商業前景的可見度和可信度都大大增強。市場觀察人士預計,如果 IPO 窗口在 2026 年下半年打開,Cerebras 很可能會抓住機會推進上市進程。
「Cerebras 的 IPO 將是對市場的一次重要考驗——投資者是否願意為 AI 硬體的技術創新和長期潛力買單,還是只認可 Nvidia 這一唯一的贏家?這個答案將影響整個 AI 硬體生態系統的發展方向。」——一位華爾街半導體分析師評論道。
Cerebras 的崛起並非個案,而是 AI 硬體產業走向多元化的一個縮影。過去一年中,多家公司和機構都在積極尋求 Nvidia GPU 的替代方案或補充方案。
Google 持續投入其自研的 TPU(Tensor Processing Unit),最新一代 TPU v6 已在內部大規模部署;Amazon 的 Trainium 晶片正通過 AWS 向外部客戶推廣;Intel 儘管在 AI 晶片領域步履蹣跚,但其 Gaudi 系列仍在某些企業場景中獲得了應用。此外,一批新興的 AI 晶片初創公司——包括 Groq、SambaNova 和 Graphcore——也在各自的技術方向上持續發力。
這種多元化趨勢是由多重因素驅動的。從供應安全角度看,過度依賴單一供應商會帶來巨大的供應鏈風險,這是任何大型企業和政府機構都無法接受的。從成本角度看,Nvidia 的壟斷定價權正在推高 AI 基礎設施的總體成本,客戶有強烈的動機引入競爭以壓低價格。從技術角度看,GPU 並非所有 AI 工作負載的最優架構——在推理、邊緣計算和特定科學計算等場景中,專用硬體往往能提供更好的性價比。
Cerebras 的晶圓級引擎代表了這一多元化趨勢中最激進的技術路線。與那些在 GPU 架構基礎上進行漸進式改進的競爭者不同,Cerebras 從根本上重新定義了 AI 晶片的形態。這種「從零開始」的方式風險更高,但如果成功,帶來的性能和效率提升也將是革命性的。
Cerebras 的融資和商業進展對香港的科技投資界和產業發展都具有重要的參考意義。
長期以來,香港和亞洲的機構投資者在 AI 硬體領域的佈局高度集中於 Nvidia。無論是直接持有 Nvidia 股票,還是通過各種基金間接持倉,Nvidia 幾乎成了「AI 投資」的代名詞。Cerebras 的崛起提醒投資者,AI 硬體賽道並非只有 GPU 一條路線——晶圓級引擎、ASIC、類腦晶片等替代技術正在逐漸成熟,具有前瞻眼光的投資者應當關注這些新興機會。
特別值得注意的是 Alpha Wave Global 的參與。這家總部位於阿布扎比的投資公司在亞洲市場有着廣泛的佈局,其投資 Cerebras 的決定表明,亞洲資本正在從被動的 Nvidia 追隨者轉變為主動的 AI 硬體生態塑造者。香港的投資機構應認真評估這一趨勢,考慮在 AI 硬體供應鏈的不同環節進行更為分散的投資佈局。
香港及大灣區正在加速數據中心基礎設施的建設。在規劃新的 AI 運算設施時,決策者不應將視野局限於 Nvidia GPU 叢集。Cerebras 的 CS-3 系統在空間效率、能耗比和部署簡潔性方面的優勢,對於土地成本高昂、電力供應有限的香港而言尤其具有吸引力。一套 CS-3 系統可能取代一整櫃 GPU 伺服器的運算能力,這對空間和能效都有嚴格限制的城市環境來說是一個值得認真考慮的方案。
在當前中美科技博弈持續升溫的背景下,AI 晶片的供應鏈安全已成為各國政府和企業的核心關切。美國對中國實施的先進晶片出口管制直接影響了香港和大灣區企業獲取高端 AI 運算資源的能力。Cerebras 的融資和 IPO 進程值得密切關注——作為一家美國 AI 晶片公司,其產品的出口管制政策將對區域 AI 發展產生直接影響。與此同時,Cerebras 的成功也啟示香港和亞洲需要培育自己的 AI 硬體創新能力,降低對任何單一國家或公司的技術依賴。
「AI 硬體的版圖正在被重新繪製。Cerebras 的 WSE 技術證明了打破 GPU 壟斷並非不可能,這對全球 AI 產業的健康發展至關重要。香港作為國際科技金融中心,應在這一變革中扮演更積極的角色——無論是作為投資者、應用者還是創新者。」——一位香港科技投資基金合夥人指出。
Cerebras 10 億美元 H 輪融資的完成,標誌着 AI 硬體產業正在進入一個新的發展階段。GPU 的統治地位短期內不會被取代——Nvidia 的技術實力、軟體生態和市場慣性仍然極其強大。但 Cerebras 所代表的替代路線正在獲得越來越多的資本支持和商業驗證,「GPU 是唯一選擇」這一行業共識正在被逐漸瓦解。
未來幾年,AI 運算市場很可能走向一種「多架構並存」的格局:GPU 仍將在通用 AI 訓練中佔據主導地位,但晶圓級引擎、ASIC 和其他專用架構將在推理、邊緣計算和特定工作負載中佔據越來越大的份額。這種多元化不僅有利於壓低 AI 運算成本、加速 AI 技術的普及,也將創造一個更為健康和可持續的產業生態。
對於 Cerebras 而言,接下來的十二個月至關重要。OpenAI 合約的順利執行、IPO 的推進、下一代 WSE 的研發進展——這些因素將共同決定晶圓級引擎能否從一項令人興奮的技術創新真正成長為改變產業格局的商業力量。230 億美元的估值既是市場對其潛力的認可,也是一份沉甸甸的期望。在 AI 革命最關鍵的基礎設施層面,挑戰者已經上場。賽局,才剛剛開始。