← 返回新聞列表

AI 基礎設施軍備競賽:Google 1,850 億美元資本支出與百萬 TPU 計劃

當科技巨頭的年度資本支出超越許多國家的 GDP,AI 基礎設施的軍備競賽正在以前所未有的規模重塑全球科技版圖。算力,而非算法,正在成為決定 AI 競賽勝負的關鍵變數。

2026 年初,Google 母公司 Alphabet 在財報電話會議上公布了一個令市場震驚的數字:公司計劃在 2026 年投入 1,850 億美元的資本支出,其中絕大部分將用於 AI 基礎設施建設。這個數字是 2025 年 910 億美元資本支出的兩倍多,甚至超過了全球許多國家的年度 GDP。然而,Google 並非唯一一家在 AI 基礎設施上進行「豪賭」的公司——OpenAI、xAI、Anthropic 以及一眾基礎設施服務商也在以驚人的速度擴張產能。

這場軍備競賽的背後邏輯很簡單:在 AI 的 scaling law 仍然有效的階段,擁有更多算力就意味着能夠訓練更大、更強的模型。而一旦在模型能力上落後,可能需要數年才能追趕。因此,即使面對巨大的財務風險,各家公司也不敢在算力投入上手軟。

Google:1,850 億美元與百萬 TPU 的宏大藍圖

Google 的 1,850 億美元資本支出計劃是 AI 基礎設施投資史上最大的單一年度承諾。要理解這個數字的規模,可以做幾個比較:它超過了香港 2025 年全年 GDP 的 40%;它相當於每天投入超過 5 億美元;它甚至超過了許多國家的年度國防預算。

這筆投資的核心去向是數據中心和自研 AI 晶片。Google 正在全球多個地區同時建設超大規模數據中心,每個數據中心的電力容量都達到數百兆瓦甚至吉瓦級別。與此同時,Google 的自研 TPU(Tensor Processing Unit)晶片正在加速迭代,最新一代 TPU v6(代號 Trillium)在能效和計算密度上都實現了顯著提升。

Anthropic 的百萬 TPU 超級集群

Google 這筆巨額投資中,一個特別引人注目的組成部分是與 Anthropic 的合作。據報導,Anthropic 正在 Google Cloud 上擴展至多達 100 萬個 TPU 的超級計算集群。這項交易的金額達數百億美元,所需的電力容量超過 1 吉瓦——相當於一座大型核電站的輸出功率。

Google AI 基礎設施投資細分

  • 2026 年資本支出:1,850 億美元(2025 年為 910 億美元,同比增長 103%)
  • Anthropic 合作:擴展至最多 100 萬個 TPU,交易金額達數百億美元
  • 電力需求:僅 Anthropic 集群就需要超過 1GW 電力容量
  • 全球數據中心:在美國、歐洲、亞太地區同步建設新設施
  • 自研晶片:TPU v6 Trillium 量產,TPU v7 研發中

百萬 TPU 集群的構建面臨着巨大的工程挑戰。首先是互聯問題——100 萬個 TPU 需要超高速、超低延遲的網絡連接才能協同工作。Google 正在開發基於光學互聯的新一代數據中心網絡來解決這個問題。其次是散熱問題——如此密集的計算設備產生的熱量需要先進的液冷系統來處理。最後是可靠性問題——在如此大規模的系統中,硬件故障是常態而非例外,系統需要能夠在部分節點失效的情況下繼續穩定運行。

「我們正在進入一個算力決定一切的時代。在 AI 模型的 scaling law 仍然有效的階段,擁有最多算力的公司將擁有最強的模型,最強的模型將吸引最多的用戶和收入,而這些收入又可以投入更多的算力。這是一個正反饋循環。」——Alphabet CFO Ruth Porat

OpenAI:逾萬億美元的多方押注

如果說 Google 的策略是「自建王國」,那麼 OpenAI 的策略則更像「廣結盟友」。OpenAI 已經與 NVIDIA、Oracle 和 Broadcom 達成了累計超過 1 萬億美元的基礎設施合作承諾。這些合作涵蓋了從 GPU 供應到數據中心建設到網絡基礎設施的全方位需求。

其中最引人注目的是與 Cerebras 的 100 億美元交易。Cerebras 是一家開發超大規模晶圓級晶片的公司,其 WSE-3(Wafer Scale Engine 3)晶片的面積是 NVIDIA H100 的 50 倍以上,專為 AI 訓練而設計。OpenAI 選擇 Cerebras 作為供應商,顯示了該公司在算力來源多元化方面的決心——在 NVIDIA GPU 供不應求的情況下,擁有替代供應商至關重要。

OpenAI 基礎設施聯盟的構成

OpenAI 的基礎設施策略可以分為三個層面。第一層是與 Microsoft Azure 的深度綁定,Microsoft 仍然是 OpenAI 最大的算力提供商,為其提供了大部分的訓練和推理基礎設施。第二層是與 NVIDIA 的直接合作,確保在下一代 GPU(Blackwell Ultra 和 Rubin 架構)的供應上佔據優先地位。第三層是替代供應商的佈局,包括 Cerebras、Oracle Cloud 和 Broadcom 的自定義晶片方案。

這種多層次的策略反映了一個現實:AI 基礎設施的供應鏈正在成為比技術研發更大的瓶頸。即使擁有最先進的算法,沒有足夠的算力也無法將其轉化為產品。

xAI Colossus 2:全球最大的 AI 超級集群

Elon Musk 的 xAI 在基礎設施建設上同樣毫不吝嗇。其 Colossus 2 超級計算集群預計將成為全球最大的單一 AI 訓練設施。Colossus 2 位於美國田納西州孟菲斯,預計將配備超過 20 萬個 NVIDIA GPU,電力容量達到數百兆瓦。

Colossus 系列集群的建設速度令業界印象深刻。第一代 Colossus 從動工到運行僅用了四個月,這在數據中心建設領域幾乎是前所未聞的。xAI 通過採用模組化建設方案和大量使用預製組件,大幅壓縮了建設週期。Colossus 2 則在此基礎上進一步擴展,據報建設速度更快,部分歸功於第一代積累的工程經驗。

各家 AI 基礎設施投入對比

  • Google/Alphabet:2026 年資本支出 1,850 億美元,同比增長 103%
  • OpenAI 聯盟:累計承諾超過 1 萬億美元(含 NVIDIA、Oracle、Broadcom 合作及 Cerebras 100 億美元交易)
  • xAI Colossus 2:全球最大單一 AI 訓練設施,超過 20 萬 GPU
  • Firmus Technologies:從 Blackstone 獲得 100 億美元貸款用於數據中心建設
  • Microsoft:2026 財年資本支出預計超過 800 億美元

Firmus Technologies 與 Blackstone:金融巨頭入場

AI 基礎設施的投資熱潮不僅限於科技公司。Firmus Technologies——一家專注於 AI 數據中心的基礎設施公司——從全球最大的另類資產管理公司 Blackstone 獲得了 100 億美元的貸款。這筆交易的意義在於:它標誌着傳統金融巨頭正在以前所未有的規模進入 AI 基礎設施領域。

Blackstone 的投資邏輯很清晰:AI 數據中心是一個具有長期穩定收益的基礎設施資產類別。與傳統數據中心相比,AI 數據中心的電力密度更高(每機架數十千瓦甚至超過百千瓦,傳統數據中心通常僅為 5-10 千瓦),因此需要全新的冷卻和電力基礎設施。這意味着大量的資本投入機會。

電力:AI 軍備競賽的隱形瓶頸

在這場算力競賽中,電力供應正在成為最大的瓶頸。僅 Google 一家公司在 2026 年的 AI 相關電力需求就預計超過 10 吉瓦——相當於一個中等規模城市的全部用電量。全球主要 AI 公司的電力需求總和更是達到了令人咋舌的水平。

為了解決電力問題,各公司正在採取多種策略。Google 和 Microsoft 都在積極投資核電站——包括小型模組化核反應堆(SMR),這種反應堆可以部署在數據中心附近,提供穩定、低碳的電力。Amazon 則購買了多座現有核電站的電力輸出權。xAI 的 Colossus 集群最初使用大量柴油發電機作為臨時電源,引發了環保爭議,後來逐步轉向天然氣和可再生能源。

能源效率的技術競賽

除了增加電力供應外,提升能源效率也是緩解瓶頸的重要途徑。NVIDIA 最新的 Blackwell Ultra GPU 相比上一代在能效上提升了約 40%。Google 的 TPU v6 也在能效方面有顯著改進。此外,液冷技術正在快速普及——直接液冷(Direct Liquid Cooling)和浸沒式冷卻(Immersion Cooling)可以將冷卻能耗降低 30-50%,同時支援更高的計算密度。

「電力正在取代晶片成為 AI 發展的最大約束條件。我們不是缺晶片,我們是缺電。在某些地區,獲得足夠電力的等待時間已經超過了三年。」——某大型數據中心運營商高管

誰將贏得算力競賽?

預測這場競賽的最終贏家為時尚早,但幾個趨勢已經清晰可見。第一,垂直整合將成為關鍵優勢。Google 同時擁有自研晶片(TPU)、雲平台(Google Cloud)和 AI 模型(Gemini),這種端到端的控制使其能夠在每個層面進行優化。第二,供應鏈多元化至關重要。過度依賴單一供應商(尤其是 NVIDIA)是一個風險,OpenAI 與 Cerebras 的合作和 Google 的自研晶片策略都反映了這一點。第三,電力和地理位置將成為新的競爭維度。擁有充足、低成本、低碳電力的地區將吸引大量數據中心投資。

對香港的啟示

AI 基礎設施的軍備競賽對香港既是挑戰也是機遇。從挑戰方面看,香港的土地和電力成本在全球範圍內屬於最高水平之一,這使得在本地建設大規模 AI 數據中心在經濟上面臨巨大困難。香港的總發電容量約為 13 吉瓦,而一個大型 AI 集群就需要超過 1 吉瓦的電力,這對本地電網構成了顯著壓力。

然而,機遇同樣明顯。作為亞洲的金融中心,香港可以在 AI 基礎設施的融資方面發揮獨特作用。Blackstone 對 Firmus Technologies 的 100 億美元投資表明,AI 數據中心正在成為一個重要的另類投資資產類別,而香港的金融機構在這個領域具有天然的優勢。

此外,香港可以探索與大灣區其他城市的合作。例如,在電力更充足、土地成本更低的地區建設數據中心,同時利用香港的國際連接性和金融服務優勢。河套深港科技創新合作區就是這種跨境合作模式的一個例子。

對於香港的企業和研究機構而言,最實際的策略可能是充分利用雲服務商提供的 AI 算力,而非自建基礎設施。隨着 Google Cloud、AWS 和 Azure 持續擴張 AI 基礎設施,雲端 AI 算力的可用性和成本效率都在改善。香港企業應該關注的不是「誰擁有最多的 GPU」,而是「如何最有效地利用可用的算力」。

本文要點總結

  • Google 計劃 2026 年資本支出 1,850 億美元,是 2025 年的兩倍,大部分用於 AI 基礎設施
  • Anthropic 在 Google Cloud 上擴展至最多 100 萬 TPU,交易金額達數百億美元,電力需求超過 1GW
  • OpenAI 累計基礎設施合作承諾超過 1 萬億美元,含 100 億美元 Cerebras 交易
  • xAI Colossus 2 將成為全球最大單一 AI 訓練設施
  • Firmus Technologies 從 Blackstone 獲得 100 億美元貸款,金融巨頭加速入場
  • 電力供應正在取代晶片成為 AI 發展的最大瓶頸,核能和液冷技術成為解決方案
  • 香港可在 AI 基礎設施融資和大灣區合作方面把握機遇