← 返回新聞列表

SambaNova 完成 3.5 億美元 E 輪融資、發布 SN50 AI 晶片並與 Intel 建立戰略合作

全新可重配置數據流單元挑戰 Nvidia 霸主地位,SoftBank 將率先在日本部署,Intel 合作瞄準多模態推理市場

在 AI 晶片市場被 Nvidia 一家獨大的格局之下,矽谷新創公司 SambaNova Systems 於 2026 年 2 月宣布了一系列重大舉措:完成由 Vista Equity Partners 和 Cambium Capital 聯合領投、Intel Capital 參投的 3.5 億美元 E 輪融資;正式發布新一代 SN50 可重配置數據流單元(Reconfigurable Dataflow Unit,RDU);並與半導體巨頭 Intel 建立深度戰略合作關係。這三重消息同時釋放,標誌著 AI 推理晶片市場正在進入一個多元競爭的新階段——尤其是在代理式 AI(Agentic AI)迅速崛起的時代背景下。

SambaNova 創立於 2017 年,由史丹福大學電腦科學教授 Kunle Olukotun、Chris Ré 以及 Rodrigo Liang 共同創辦。公司總部位於加州帕羅奧圖,核心理念是從底層架構出發,設計專門為 AI 工作負載優化的處理器,而非沿用 GPU 的通用計算範式。此次 E 輪融資代表了資本市場對其技術路線的再度認可,也為 SN50 的量產與商業化提供了充裕的資金支持。

3.5 億美元 E 輪融資:資本結構與投資者陣容

SambaNova 的 3.5 億美元 E 輪融資由 Vista Equity Partners 和 Cambium Capital 聯合領投。Vista 是一家專注於企業級軟體和數據驅動業務的大型私募股權基金,管理資產規模超過 1,000 億美元;Cambium Capital 則是近年來在科技投資領域快速崛起的新銳基金。兩家機構的聯手領投,反映出市場對 AI 推理基礎設施的長期投資邏輯。

值得特別關注的是 Intel Capital 作為戰略投資者的參與。Intel 近年來在 AI 晶片領域面臨巨大壓力——其 GPU 業務(Gaudi 系列)未能在與 Nvidia 的競爭中取得理想成績,因此轉向透過投資和合作來建立生態系統。Intel Capital 的參投不僅是財務行為,更預示了兩家公司隨後宣布的深度技術合作。

SambaNova E 輪融資要點

  • 融資金額:3.5 億美元 E 輪
  • 領投方:Vista Equity Partners、Cambium Capital
  • 戰略投資者:Intel Capital
  • 其他投資者:Battery Ventures、GV(前 Google Ventures)、BlackRock 等
  • 資金用途:SN50 量產、全球商業化拓展、研發投入
  • 背景:此前曾有 Intel 以約 16 億美元估值洽談收購,但未能達成協議

除了 Vista、Cambium 和 Intel Capital 之外,此輪融資的投資者陣容還包括 Battery Ventures、GV(前 Google Ventures)、BlackRock 等知名機構。這些投資者的參與反映了 SambaNova 在 AI 基礎設施領域的獨特定位——既非純粹的晶片設計公司,也非單純的軟體平台,而是提供從矽到軟體的垂直整合解決方案。

有趣的是,在此次融資之前,Intel 曾以約 16 億美元的估值與 SambaNova 進行收購談判,但最終未能達成協議。收購談判破裂後,雙方反而找到了另一種合作模式——這在科技產業中並不罕見。Intel 現任 CEO 陳立武(Lip-Bu Tan)不僅推動了這項投資,更親自擔任 SambaNova 董事會主席,這種深度介入的治理安排在純粹的財務投資中極為少見,暗示著雙方合作的戰略深度遠超一般投資關係。

SN50 可重配置數據流單元:架構創新與性能突破

SN50 是 SambaNova 最新一代的可重配置數據流單元(RDU),專門為代理式 AI 部署場景設計。與傳統 GPU 架構不同,RDU 採用數據流(Dataflow)計算範式,讓數據在處理單元之間直接流動,而非反覆讀寫外部記憶體。這種架構在 AI 推理工作負載——尤其是需要大量上下文處理的大型語言模型推理——中具有天然的效率優勢。

SambaNova 聲稱 SN50 在代理式推理場景中展現出驚人的性能數據。在 Llama 3.3 70B 模型的代理式推理基準測試中:

  • 最大速度:比 Nvidia Blackwell B200 快 5 倍
  • 吞吐量:比 Nvidia Blackwell B200 高 3 倍
  • 單卡算力:相較上一代 RDU 提升 5 倍
  • 網絡頻寬:相較上一代提升 4 倍

這些數字如果屬實,將是對 Nvidia 在 AI 推理領域主導地位的直接挑戰。不過,業界觀察人士提醒,這些性能數據通常來自供應商自行選擇的基準測試場景,實際部署中的表現可能因工作負載類型、軟體生態成熟度和系統整合複雜度而有所差異。Nvidia Blackwell B200 擁有龐大的 CUDA 生態系統和成熟的軟體堆疊,這些都是 SambaNova 在商業化過程中需要克服的競爭壁壘。

SN50 核心規格亮點

  • 架構類型:可重配置數據流單元(RDU)
  • 目標場景:代理式 AI 推理部署
  • 擴展能力:支援最多 256 個加速器互聯
  • 模型規模:支援超過 10 萬億參數的模型
  • 上下文長度:支援超過 1,000 萬 tokens
  • 能效表現:每個 SambaRack 功耗 20kW,採用氣冷散熱(無需液冷)
  • 總擁有成本:相較競爭方案降低 3 倍

擴展性與能效優勢:重新定義 AI 基礎設施經濟學

SN50 最引人注目的技術特性之一是其擴展能力。系統支援最多 256 個加速器互聯,能夠運行超過 10 萬億參數的模型,並處理超過 1,000 萬 tokens 的上下文長度。在代理式 AI 時代,這些能力並非紙上談兵——當 AI 代理需要同時處理多個任務、維持超長對話記憶、並在不同工具和資料來源之間協調時,超長上下文支持和超大模型能力將成為基礎設施層面的硬性需求。

然而,SN50 真正可能改變遊戲規則的是其能效和總擁有成本(TCO)優勢。SambaNova 聲稱 SN50 的 TCO 比競爭方案低 3 倍,這一數字如果在大規模部署中得到驗證,將對資料中心的經濟模型產生深遠影響。

具體來看,每個 SambaRack 的功耗僅為 20kW,且採用傳統氣冷散熱方案,無需液冷系統。這一點的意義不容低估。當前 AI 資料中心面臨的最大瓶頸之一就是散熱問題——Nvidia 的高端 GPU 機架通常需要複雜的液冷基礎設施,這不僅增加了初始部署成本,還帶來了維護複雜度、建設週期和設施改造等一系列挑戰。如果 SN50 真的能在氣冷條件下提供具競爭力的性能,那麼它將大幅降低 AI 基礎設施的部署門檻,特別是在電力供應和冷卻能力受限的地區。

「在 AI 推理市場中,總擁有成本將逐漸取代峰值性能成為客戶最關心的指標。當企業從 AI 實驗階段進入大規模生產部署,每一個 token 的生成成本都直接影響商業模式的可持續性。」——AI 基礎設施分析師

從宏觀角度看,全球資料中心的電力消耗正在以前所未有的速度增長。國際能源署(IEA)預估,到 2028 年全球資料中心用電量可能超過 1,000 TWh,其中 AI 工作負載佔比迅速攀升。在這種背景下,任何能夠在不犧牲性能的前提下顯著降低功耗的解決方案,都將獲得巨大的市場機會。

SoftBank 率先部署:日本市場的戰略意義

SambaNova 宣布,SoftBank 將成為 SN50 的首個大規模部署客戶,率先在日本建立基於 SN50 的 AI 推理基礎設施。這項合作具有多層戰略意義。

首先,SoftBank 集團旗下的 SoftBank Corp. 近年來一直在積極建設 AI 基礎設施。孫正義在多次公開場合表達了對 AGI(通用人工智能)的願景,並承諾在未來數年投入數百億美元用於 AI 基礎設施建設。SoftBank 選擇 SN50 作為其 AI 推理平台的首選硬體,對 SambaNova 而言是重要的市場驗證信號。

其次,日本市場本身具有特殊的戰略價值。日本政府已將 AI 確立為國家戰略優先事項,並投入大量資源推動「AI 立國」計劃。日本企業對技術產品的品質要求極為嚴格,SoftBank 的早期採用將為 SN50 建立強大的信譽背書。

此外,SoftBank 在日本的部署也與更大的地緣戰略格局密切相關。在中美科技競爭持續升溫的背景下,日本作為美國的核心盟友,正在成為亞太地區 AI 基礎設施的重要節點。SN50 的日本部署有助於建立獨立於中國供應鏈的 AI 推理能力,這對日本政府和企業界都具有吸引力。

Intel 戰略合作:Xeon + SN50 的組合拳

此次最引人矚目的合作或許是 SambaNova 與 Intel 之間的深度戰略夥伴關係。雙方宣布將把 Intel 的 Xeon CPU 與 SN50 RDU 進行緊密整合,打造針對高效多模態大型語言模型推理的異構計算平台。

這項合作背後的技術邏輯清晰而有力。在現實世界的 AI 推理工作負載中,並非所有計算都適合在加速器上執行。數據前處理、任務調度、結果後處理等環節仍然需要強大的通用處理能力——這正是 Xeon CPU 的強項。透過將 Xeon 的通用計算能力與 SN50 的專用 AI 推理能力深度整合,這對組合有望在多模態推理場景中提供最佳的系統級性能和效率。

對 Intel 而言,這項合作具有雙重意義。一方面,它為 Xeon 處理器在 AI 時代找到了一個有價值的定位——不是與 GPU 或 AI 加速器直接競爭,而是作為整體 AI 系統中不可或缺的組成部分。另一方面,透過與 SambaNova 合作,Intel 得以在不完全依賴自研 GPU 的情況下參與高增長的 AI 推理市場。

Intel CEO 陳立武(Lip-Bu Tan)親自出任 SambaNova 董事會主席這一事實,進一步凸顯了這項合作的戰略深度。陳立武在半導體設計和 EDA(電子設計自動化)領域擁有數十年的經驗,他在 Cadence Design Systems 的任期內成功將其打造為全球領先的 EDA 公司。他對 SambaNova 的個人介入,表明 Intel 將這項合作視為公司 AI 戰略轉型的關鍵環節。

Intel x SambaNova 合作框架

  • 硬體整合:Intel Xeon CPU + SN50 RDU 異構計算平台
  • 目標場景:高效多模態大型語言模型推理
  • 治理安排:Intel CEO 陳立武擔任 SambaNova 董事會主席
  • 投資關係:Intel Capital 參與 E 輪融資
  • 歷史背景:此前約 16 億美元的收購談判未果,轉為合作夥伴模式
  • 戰略意義:為 Intel 在 AI 推理市場建立差異化定位

值得一提的是 Intel 此前曾以約 16 億美元的估值嘗試收購 SambaNova 但最終破局。收購未成的原因可能涉及估值分歧、整合風險評估或 SambaNova 創始團隊希望保持獨立性等因素。但從結果來看,雙方最終找到的合作模式或許對兩家公司都更為有利:SambaNova 保持了獨立性和靈活性,而 Intel 則在不承擔全部整合風險的情況下獲得了 AI 推理領域的戰略佈局。

挑戰 Nvidia:市場格局與競爭分析

SambaNova 的 SN50 進入的是一個被 Nvidia 高度主導的市場。根據多項行業估計,Nvidia 在 AI 加速器市場的份額超過 80%,其 CUDA 生態系統經過十餘年的積累,已形成了強大的開發者鎖定效應。挑戰這樣一個根深蒂固的市場地位,SambaNova 面臨哪些機遇與挑戰?

從機遇方面看,AI 推理市場正在快速增長,且其需求特徵與訓練市場有本質區別。在訓練階段,用戶傾向於選擇最熟悉、生態最完善的平台(即 Nvidia),因為訓練流程的複雜度高、遷移成本大。但在推理階段,用戶更關注的是成本效率和特定工作負載的性能——這正是專用架構可能勝出的領域。

此外,代理式 AI 的崛起正在改變推理工作負載的特徵。傳統的 AI 推理通常是簡單的請求-回應模式,但代理式 AI 涉及多輪推理、工具調用、長上下文維護和多模態處理。這些新型工作負載對硬體架構提出了不同的要求,而 SN50 的 RDU 架構——特別是其超長上下文支持(超過 1,000 萬 tokens)和超大模型能力(超過 10 萬億參數)——恰好針對這些需求進行了優化。

然而,挑戰同樣巨大。Nvidia 不會坐以待斃——其 Blackwell 架構本身就在能效和推理性能方面進行了大幅提升,而更新一代的 Rubin 架構也已在規劃之中。更重要的是,Nvidia 的軟體生態系統——包括 CUDA、TensorRT、Triton 推理伺服器等——已成為整個 AI 產業的事實標準。SambaNova 需要證明其軟體堆疊能夠提供同等甚至更好的開發者體驗,這絕非短期內可以完成的任務。

市場上的其他挑戰者也不容忽視。AMD 的 Instinct MI 系列、Google 的 TPU、Amazon 的 Trainium/Inferentia,以及 Cerebras、Groq 等新創公司,都在爭奪 Nvidia 主導地位之外的市場空間。SambaNova 需要在這個日益擁擠的賽道中找到自己獨特的差異化定位。

對香港及亞太 AI 生態系統的影響

SambaNova 的這一系列舉措對香港和亞太地區的 AI 生態系統具有多層面的影響和啟示。

首先,從基礎設施角度看,SN50 的氣冷散熱特性對香港這樣土地稀缺、電力成本高昂的城市特別具有吸引力。香港的資料中心空間有限,改造既有設施以支持液冷 GPU 機架的成本和難度都很高。如果 SN50 真的能在氣冷條件下提供具競爭力的 AI 推理性能,將為香港企業部署本地 AI 推理能力提供一條更加可行的路徑。

其次,SoftBank 在日本的率先部署為亞太地區樹立了重要先例。作為大灣區核心城市和國際金融中心,香港有條件成為 SambaNova 進軍東亞和東南亞市場的戰略節點。香港的金融服務、法律專業服務和跨國企業運營等高價值場景,恰好是代理式 AI 推理需求最迫切的領域。

第三,Intel 與 SambaNova 的合作模式為香港科技產業提供了有價值的參考。在 AI 時代,並非每家公司都需要從零開始建設完整的技術棧——透過戰略投資、技術合作和生態共建,即使是規模較小的企業也可以在 AI 價值鏈中找到自己的位置。香港的科技公司和創投基金可以借鏡這種合作模式,在 AI 晶片和基礎設施生態系統中尋找投資和合作機會。

  • 數據中心能效:SN50 的低功耗氣冷方案降低了香港本地 AI 基礎設施的部署門檻
  • 金融 AI 應用:代理式 AI 推理對金融服務的風險管理、合規審查和交易策略極為關鍵
  • 大灣區聯動:香港可作為國際 AI 晶片技術進入大灣區的橋頭堡
  • 多元供應鏈:SN50 提供了 Nvidia 之外的替代方案,有助於降低單一供應商依賴風險
  • 人才吸引:AI 晶片生態的多元化發展為香港的硬體和系統工程人才創造新機會

展望:代理式 AI 時代的基礎設施變革

SambaNova 的 E 輪融資、SN50 發布和 Intel 合作三重消息,折射出 AI 產業正在經歷的一場深層結構變化。隨著 AI 從「聊天機器人」時代進入「代理式 AI」時代,計算基礎設施的需求正在發生根本性的轉變。

在聊天機器人時代,AI 推理主要是處理短對話、快速回應的簡單任務,GPU 的通用計算能力足以勝任。但在代理式 AI 時代,AI 系統需要維持超長上下文、執行複雜的多步驟推理、協調多個工具和資料來源、並在長時間運行的任務中保持一致性。這些全新的工作負載特徵,正好為 SN50 這樣的專用架構創造了差異化競爭的空間。

當然,技術創新只是成功的必要條件之一。SambaNova 能否真正撼動 Nvidia 的主導地位,還取決於其商業化執行力、軟體生態建設、客戶服務能力和規模化生產等多個維度。3.5 億美元的融資雖然不少,但與 Nvidia 每年數百億美元的研發投入相比仍顯微薄。SambaNova 的策略顯然是聚焦於特定的高價值場景(代理式 AI 推理),在細分市場中建立優勢,而非試圖在所有領域與 Nvidia 全面競爭。

「AI 晶片市場不會永遠是贏者通吃的格局。隨著 AI 工作負載的多樣化,不同架構在不同場景中的優勢將會顯現。未來的 AI 資料中心很可能會像今天的汽車引擎一樣——不同的用途需要不同的動力系統。」——半導體產業分析師

對於整個 AI 產業而言,SambaNova 的這一系列舉措傳遞了一個明確的信號:AI 推理市場的競爭正在加劇,而代理式 AI 的崛起正在重新定義計算基礎設施的需求。無論 SN50 最終能否在商業上取得突破性成功,它所代表的技術方向——專為新型 AI 工作負載設計的數據流架構——都值得產業界和投資者持續關注。

在未來 12 至 18 個月內,隨著 SoftBank 在日本的部署進入實際運營、Intel 合作的產品陸續上市、以及更多企業客戶的實際使用回饋出現,市場將能夠更準確地評估 SN50 相對於 Nvidia Blackwell 和其他競爭方案的真實表現。這場 AI 晶片架構之戰的結果,將深刻影響全球 AI 基礎設施的格局,也將為香港和亞太地區的 AI 發展帶來新的機遇與選擇。

本文要點總結

  • SambaNova 完成 3.5 億美元 E 輪融資,由 Vista Equity Partners 和 Cambium Capital 領投,Intel Capital 戰略參投
  • SN50 是專為代理式 AI 設計的可重配置數據流單元(RDU),聲稱在 Llama 3.3 70B 推理中比 Nvidia Blackwell B200 快 5 倍、吞吐量高 3 倍
  • SN50 支援最多 256 個加速器、超過 10 萬億參數模型和超過 1,000 萬 tokens 上下文
  • 每個 SambaRack 功耗僅 20kW 且採用氣冷散熱,TCO 比競爭方案低 3 倍
  • SoftBank 將率先在日本部署 SN50,Intel 將 Xeon CPU 與 SN50 整合用於多模態推理
  • Intel CEO 陳立武擔任 SambaNova 董事會主席,此前約 16 億美元收購談判未果
  • SN50 的低功耗氣冷特性對香港等土地和電力受限地區具有特殊吸引力