← 返回新聞列表

全球數據中心投資狂潮:2030 年資本支出將達 1.7 萬億美元

人工智能的爆炸式增長正在重新定義全球基礎設施的規模。根據 Dell'Oro Group 最新預測,全球數據中心資本支出將在 2030 年達到驚人的 1.7 萬億美元。僅 2026 年一年,這一數字便有望逼近 1 萬億美元的里程碑——遠超市場此前預期。四大美國超大規模雲端巨頭正以前所未有的速度投入資金,一場關乎算力、能源與地緣戰略的全球競賽已經全面展開。

超大規模支出:數字背後的野心

當我們談論「1.7 萬億美元」這個數字時,需要一些參照物才能理解其規模。這相當於整個南韓的年度 GDP,或是全球半導體產業年收入的三倍以上。而推動這股投資巨浪的,正是 AI 模型對算力的無底洞式需求。

2026 年伊始,美國四大超大規模雲端巨頭——Amazon、Google、Meta 和 Microsoft——的合計資本支出已逼近 6,000 億美元。其中,Amazon 以 1,250 億美元的年度資本支出計劃高居榜首,這個數字甚至超過許多國家的國防預算。Microsoft、Alphabet、Amazon 和 Meta 四家公司更宣布,2026 年的總支出計劃可能高達 6,500 億美元。

值得注意的是,這些數字並非空泛的長期承諾,而是已經體現在各公司季度財報中的實際資本開支。Amazon 在 2025 年第四季度的資本支出已較上年同期增長超過 60%,而 Meta 則將其 2026 年資本支出預算從原計劃的 380-400 億美元上調至 600-650 億美元,增幅驚人。

「我們正處於一個多年期的 AI 擴張週期之中。寧可在算力上過度投資而最終發現不需要那麼多,也不願投資不足而錯失這一代最重要的技術轉型。」——Meta CEO Mark Zuckerberg,2026 年 1 月財報電話會議

AI 擴張週期:為什麼投資還在加速

儘管外界對 AI 基建投資的回報率提出了越來越多的質疑,四大巨頭的投資節奏不僅沒有放緩,反而在加速。這背後有幾個結構性因素:

模型規模的持續擴大

從 GPT-4 到 GPT-5.3,從 Gemini 2 到 Gemini 3 Deep Think,每一代旗艦模型的訓練算力需求都在以數量級的速度增長。OpenAI 的下一代模型據報需要的訓練算力是 GPT-4 的 100 倍以上。這意味著即使單位算力成本持續下降,總投資仍必須大幅攀升。

推理需求的爆發

如果說模型訓練是一次性的大規模投入,那麼推理(inference)則是持續性的算力消耗。隨著 ChatGPT 的月活躍用戶突破 4 億、Gemini 達到 7.5 億月活、以及數以萬計的企業部署 AI 助手,推理算力的需求正在以指數級速度增長。業界估計,到 2027 年,推理所消耗的算力將超過訓練。

AI 代理的崛起

2026 年被廣泛視為「AI 代理元年」。與簡單的聊天機器人不同,AI 代理需要持續運行、自主決策、並與多個系統交互——每一個代理都是一個持續消耗算力的獨立實體。當企業開始大規模部署 AI 代理處理客服、銷售、編程等任務時,算力需求將再上一個台階。

四大超大規模雲端巨頭 2026 年資本支出計劃

  • Amazon (AWS):約 1,250 億美元,重點擴建北維吉尼亞、俄勒岡及海外數據中心園區
  • Microsoft (Azure):約 800-900 億美元,全球新建 10+ 個數據中心園區,支援 OpenAI 模型部署
  • Alphabet (Google Cloud):約 750 億美元,自研 TPU v6e 晶片大規模量產,Gemini 推理需求驅動
  • Meta:約 600-650 億美元,Llama 4 訓練集群建設,開源 AI 基建投資

能源瓶頸:數據中心的阿喀琉斯之踵

在算力供應鏈中,最大的瓶頸已經不是晶片——而是電力。新一代超大規模數據中心的單個園區功耗動輒以吉瓦(GW)計算。為了更好地理解這一規模:一個 1GW 的數據中心園區的耗電量,大致相當於一個百萬人口城市的家庭用電總量。

這種驚人的電力需求正在全球範圍內引發連鎖反應。在美國維吉尼亞州——全球數據中心最密集的地區——電力公司 Dominion Energy 已經警告,現有電網容量可能無法滿足未來五年的需求增長。在愛爾蘭,數據中心已佔全國總用電量的 21%,政府不得不對新建數據中心實施限制。

核能的復興

面對能源短缺,科技巨頭紛紛轉向核能。Microsoft 與核聚變初創公司 Helion Energy 簽訂了購電協議,Amazon 已投資超過 10 億美元於核能項目,Google 則與核裂變初創 Kairos Power 達成合作。甚至連 Meta 都在探索小型模塊化反應堆(SMR)的可能性。

這種趨勢在某種程度上具有歷史諷刺意味:科技產業曾是最堅定的可再生能源倡導者,如今卻不得不擁抱核能——因為太陽能和風能的間歇性特徵,無法滿足數據中心 7×24 小時不間斷運行的基本需求。

水資源的隱憂

能源之外,水資源正成為另一個日益嚴峻的問題。傳統的數據中心冷卻系統每年消耗數十億升水。在水資源緊張的地區——如美國西南部、中東——這引發了嚴重的社區對立和環境爭議。Google 的 2025 年環境報告顯示,其全球數據中心的年用水量已超過 60 億加侖,較 2022 年增長了 20%。

冷卻技術的革命

面對熱管理挑戰,行業正在經歷一場從空氣冷卻到液體冷卻的根本轉型。下一代 AI 晶片——特別是 NVIDIA 的 Vera Rubin 系列和 Samsung 的 HBM4 高頻寬記憶體——的功耗密度已經超出了傳統風冷系統的散熱極限。

直接液冷(Direct Liquid Cooling)

通過將冷卻液直接引導至伺服器的發熱元件表面,直接液冷可以將散熱效率提升 50% 以上。Microsoft 和 Google 已經在其最新的 AI 訓練集群中全面部署了這一技術。

浸沒式冷卻(Immersion Cooling)

更進一步的方案是將整個伺服器浸沒在不導電的冷卻液中。這種方法幾乎可以消除對水的依賴,同時實現極高的散熱密度。雖然前期投資較高,但生命週期總成本(TCO)可能更低。ByteDance 和 Oracle 等公司已經在部分數據中心中開始試用浸沒式冷卻。

下一個硬件週期:HBM4 與 Vera Rubin

推動這輪數據中心投資的核心硬件正在迎來新一代更替。Samsung 的 HBM4(高頻寬記憶體第四代)預計將於 2026 年下半年開始量產,提供較 HBM3e 高出 50% 的記憶體頻寬,這對於大型語言模型的推理效率至關重要。

與此同時,NVIDIA 的 Vera Rubin 架構——以天文學家 Vera Rubin 命名——將成為 Blackwell 的繼任者。Vera Rubin 預計整合全新的 GPU 微架構與 HBM4 記憶體,在單晶片上實現前所未有的 AI 算力。這意味著數據中心需要為新一代硬件預留足夠的供電與散熱容量,進一步推高基建投資。

硬件的世代更替還帶來另一個隱藏成本:現有設備的加速折舊。許多在 2023-2024 年花費數十億美元部署的 NVIDIA A100 和 H100 集群,可能在 2027 年前就面臨性能過時的問題。這種技術迭代的速度,使得數據中心投資具有了某種「軍備競賽」的特徵。

「數據中心產業正在經歷一場結構性轉變。過去,數據中心是 IT 基礎設施的一部分;現在,它正在成為一個獨立的、與能源和房地產交叉的超級資產類別。」——Dell'Oro Group 研究總監 Baron Fung

投資回報的質疑與回應

隨著資本支出數字不斷攀升,華爾街分析師和投資者對回報率的質疑也在加劇。2025 年底的一系列分析報告指出,當前的 AI 基建投資規模可能過度超前於實際需求。部分分析師將當前局面與 1990 年代末的光纖泡沫相比較——當時,電信公司鋪設了大量最終閒置的光纖電纜。

然而,超大規模雲端企業的管理層似乎並不認同這一類比。他們指出幾個關鍵差異:首先,AI 的應用場景正在以比互聯網更快的速度商業化;其次,雲端算力具有高度的可替代性——即使某些 AI 應用失敗,算力仍可用於其他用途;最後,當前的 AI 模型效率仍在快速提升,意味著同樣的硬件投資未來能夠支撐更多的工作負載。

從財務角度看,微軟的 Azure AI 服務收入在 2025 年增長超過 150%,Amazon 的 Bedrock 平台企業客戶數量增長了三倍——這些數據表明,AI 基建投資正在轉化為實際收入。問題不在於需求是否存在,而在於供應是否會暫時超出需求,以及這種暫時的過剩是否會在中期內被消化。

對香港的啟示

全球數據中心投資浪潮對香港而言,既是機遇,也是挑戰。作為亞太區域的金融與商業中心,香港目前擁有約 75 個數據中心,是區內數據中心密度最高的城市之一。然而,面對新一輪 AI 驅動的超大規模數據中心建設潮,香港面臨幾個結構性制約。

土地制約

香港的土地資源極度稀缺,這是眾所周知的事實。新一代 AI 數據中心需要的樓面面積遠超傳統數據中心——一個具競爭力的 AI 訓練集群可能需要 50,000 至 100,000 平方呎的專用空間。在香港,這樣的土地供應極為有限。北部都會區的發展或可為此提供部分土地,但從規劃到建成可能需要 5-7 年。

電力容量

香港現有的電力基礎設施是為一個金融服務導向的經濟體設計的,而非算力密集型產業。如果香港希望承接大規模 AI 訓練工作負載,電力系統需要大規模升級。中華電力和港燈需要在變電站、輸電網絡和發電容量方面進行重大投資。特別是在香港已承諾的碳中和目標下,如何在增加電力供應的同時減少碳排放,將是一個需要精心平衡的議題。

東南亞 AI 算力樞紐的角色

儘管存在上述制約,香港仍具有成為東南亞 AI 算力樞紐的獨特優勢:完善的國際海纜連接、成熟的金融生態系統(便於大規模基建融資)、法治和數據保護框架、以及與中國內地市場的獨特連接。新加坡已暫停新數據中心建設許可(雖然近期有所鬆動),這為香港提供了吸引數據中心投資的窗口期。

香港政府在 2025 年施政報告中提出了建設「國際 AI 數據中心」的願景,包括在將軍澳和河套地區預留用地。如果執行得當,香港有望在這一輪全球數據中心擴張中佔據有利位置。但時間窗口有限——東京、首爾、馬來西亞柔佛等競爭對手正在快速行動。

對於香港的數據中心營運商和投資者而言,現在的關鍵問題不是「是否」要投資 AI 就緒的基礎設施,而是「如何」在土地和能源制約下找到可行的擴展路徑。與其試圖在超大規模數據中心的規模上與內地或東南亞競爭,香港或許更應該聚焦於高價值的 AI 推理和金融科技 AI 應用——這些工作負載對低延遲和數據合規的要求,恰恰是香港的優勢所在。

本文要點總結

  • Dell'Oro Group 預測全球數據中心資本支出將在 2030 年達到 1.7 萬億美元,2026 年便有望逼近 1 萬億美元里程碑,四大美國超大規模雲端巨頭 2026 年合計投入可達 6,500 億美元
  • 能源供應已超越晶片成為數據中心擴張的最大瓶頸,科技巨頭紛紛投資核能項目,液冷與浸沒式冷卻技術正在取代傳統風冷方案
  • Samsung HBM4 和 NVIDIA Vera Rubin 架構將推動下一輪硬件升級週期,進一步加劇數據中心的供電與散熱壓力
  • 香港擁有約 75 個數據中心和獨特的區位優勢,但需在土地供應和電力容量上取得突破,才能在全球 AI 算力競賽中維持競爭力,建議聚焦高價值推理和金融科技 AI 應用