← 返回新聞列表

Samsung 全球首發 HBM4:AI 記憶體進入新紀元

Samsung 於 2026 年 2 月宣佈全球首家實現 HBM4(第四代高頻寬記憶體)量產並正式出貨。這款記憶體速度高達 11.7 Gbps,較標準規格高出 46%,最大頻寬達 3.3 TB/s——是上一代 HBM3E 的 2.7 倍。在 AI 算力需求呈指數級增長的今天,記憶體正成為決定 AI 發展速度的關鍵瓶頸。

HBM4 技術突破:不只是數字的提升

要理解 HBM4 為何重要,首先需要認識當前 AI 運算的核心矛盾:GPU 的運算能力已經遠超記憶體供給數據的速度。無論 NVIDIA 的 GPU 晶片多麼強大,如果記憶體無法足夠快速地餵入數據,GPU 的大部分時間都處於「等待」狀態。這種瓶頸在訓練大型語言模型時尤為突出——GPT-4 級別的模型參數量高達數千億,每一次運算都需要海量的數據吞吐。

HBM(High Bandwidth Memory,高頻寬記憶體)技術正是為解決這一瓶頸而生。與傳統 DDR 記憶體不同,HBM 通過垂直堆疊多層 DRAM 晶粒,並使用矽穿孔(TSV)技術連接,實現了遠超傳統記憶體的頻寬。Samsung 此次推出的 HBM4,在這項技術上實現了跨代性的突破。

Samsung HBM4 核心規格

  • 速度:11.7 Gbps(標準規格為 8 Gbps),最高可達 13 Gbps,較標準高出 46%-63%
  • 頻寬:最大 3.3 TB/s,為 HBM3E 的 2.7 倍
  • 堆疊層數:12 層 DRAM 晶粒堆疊
  • 容量:24GB 至 36GB
  • 功耗效率:較上一代提升 40%
  • 目標應用:NVIDIA Rubin 加速器(預計 2026 下半年)

其中,40% 的功耗效率提升尤其值得關注。AI 資料中心的能耗問題已成為全球性議題,部分大型資料中心的用電量已相當於一座小城市。記憶體作為資料中心耗電的主要組件之一,其功耗效率的大幅改善,不僅降低營運成本,更有助於緩解 AI 產業面臨的能源約束。

Samsung 與 SK Hynix 的記憶體王座之爭

Samsung 搶先量產 HBM4 的戰略意義,遠不止技術層面。在 HBM 市場上,Samsung 過去一年始終處於追趕者的位置。主要競爭對手 SK Hynix 憑藉在 HBM3E 上的量產優勢,佔據了 NVIDIA HBM 供應量的 50% 以上份額,Samsung 僅獲得約 20% 出頭的佔比。

在 AI 時代,記憶體不再是默默無聞的零組件——它是決定一個國家、一家企業能否參與 AI 競賽的戰略性資源。Samsung 搶先量產 HBM4,不僅是一場商業勝利,更是一次戰略突圍。

這種差距的根源在於 Samsung 在 HBM3E 世代的良率問題。據業界傳聞,Samsung 的 HBM3E 產品在 NVIDIA 的品質認證中多次遭遇延遲,導致大量訂單流向 SK Hynix。Samsung 此次在 HBM4 上搶得先機,顯然是痛定思痛後的戰略反擊。

消息公佈後,Samsung 電子股價應聲上漲 7.6%,反映出市場對其競爭力回升的信心。然而,需要冷靜看到的是,「首家量產」與「大規模穩定供貨」之間仍有距離。SK Hynix 預計也將在數月內完成 HBM4 量產,屆時真正的較量才剛開始。

Micron 的第三極角色

在 Samsung 與 SK Hynix 的雙雄爭霸之外,美國記憶體巨頭 Micron 同樣不容忽視。Micron 在 HBM3E 上已獲得 NVIDIA 的供應認證,並在逐步擴大產能。雖然目前在 HBM 市場份額上仍居第三,但其地緣政治優勢(作為美國唯一的主要記憶體製造商)可能在日益複雜的國際環境中成為關鍵籌碼。

NVIDIA Rubin 架構:HBM4 的首個戰場

Samsung 的 HBM4 將率先應用於 NVIDIA 即將推出的 Rubin 加速器架構。Rubin 是 NVIDIA 繼 Hopper(H100)和 Blackwell(B200)之後的下一代 AI 加速器平台,預計於 2026 年下半年上市。

Rubin 架構對記憶體頻寬的需求達到了前所未有的水平。隨著 AI 模型規模持續膨脹——業界已在討論萬億參數級別的模型——HBM4 提供的 3.3 TB/s 頻寬將成為支撐下一代模型訓練和推理的基礎設施。

從產業鏈角度看,HBM4 的量產也為 NVIDIA Rubin 的如期推出提供了關鍵保障。過去兩年,記憶體供應短缺多次成為 NVIDIA 產品出貨的瓶頸。Samsung 和 SK Hynix 在 HBM4 上的競相投產,有望緩解這一供需矛盾。

記憶體產業的黃金時代:8,400 億美元的市場前景

AI 帶來的記憶體需求爆發,正在重塑整個半導體記憶體產業的格局。根據行業預測,HBM 銷售額將在 2026 年實現三倍增長,而整體記憶體產業收入預計到 2027 年將達到 8,400 億美元的歷史新高。

這一增長背後有多重驅動力:

  • AI 訓練需求:大型語言模型的訓練需要極高的記憶體頻寬和容量,每個 GPU 集群配備的 HBM 數量持續增加。
  • AI 推理規模化:隨著 ChatGPT 等 AI 服務用戶數突破數億,推理端的記憶體需求同樣快速增長。
  • 邊緣 AI 興起:AI 功能向手機、汽車、工業設備等邊緣設備滲透,帶動了對高性能嵌入式記憶體的需求。
  • 資料中心擴建潮:全球科技巨頭的資料中心建設計劃持續加碼,記憶體作為核心組件直接受益。

HBM4E 已在路上:16 層堆疊、48GB 容量

值得關注的是,Samsung 已在規劃 HBM4 的增強版——HBM4E,預計於 2026 年下半年推出。HBM4E 將採用 16 層堆疊技術,容量最高可達 48GB,進一步滿足下一代超大規模 AI 模型的需求。

從 HBM4 的 12 層到 HBM4E 的 16 層,看似只是簡單的層數增加,實則涉及複雜的散熱管理、晶粒薄化、TSV 對準等工程挑戰。能否在保持良率的同時實現 16 層堆疊,將是 Samsung 和 SK Hynix 下一階段的技術角力焦點。

記憶體作為 AI 戰略瓶頸的地緣政治維度

在當前的國際地緣政治環境下,HBM 記憶體的戰略地位已超越純粹的商業範疇。美國對中國的晶片出口管制中,HBM 記憶體是受限品項之一。全球 HBM 產能高度集中於韓國(Samsung、SK Hynix)和美國(Micron),這種集中度使得記憶體供應鏈具有顯著的地緣政治脆弱性。

任何主要記憶體工廠的產能中斷——無論是自然災害、政治衝突還是供應鏈斷裂——都可能直接影響全球 AI 產業的發展步伐。這也是各國政府積極推動半導體產業本土化的深層原因之一。

對香港的啟示

供應鏈樞紐角色的重新定位

香港長期以來在全球電子產品供應鏈中扮演重要的貿易中介和轉口角色。隨著 HBM 等高端半導體組件的戰略重要性上升,香港需要重新審視自身在科技供應鏈中的定位。

一方面,香港的自由貿易港地位和完善的物流基礎設施,使其在半導體貿易中仍具優勢。但另一方面,日益複雜的出口管制環境要求香港企業提升合規能力,確保在合法框架內營運。

投資與產業機遇

對於香港的投資界而言,Samsung HBM4 的突破進一步確認了 AI 基礎設施投資的長期主題。記憶體產業的週期性特徵正在被 AI 需求的結構性增長所改變——傳統的「記憶體寒冬」可能在未來數年內不會重現。港股市場中的半導體概念股、以及與 AI 基礎設施相關的 REITs(如資料中心 REITs),都值得密切關注。

此外,香港的大學和研究機構在 AI 模型優化、記憶體架構設計等領域擁有一定的學術積累。香港科技園和數碼港可以考慮設立專項基金,支持本地團隊在 AI 硬體相關領域的研發,從而在這條價值鏈上佔據一席之地。

本文要點總結

  • Samsung 全球首家實現 HBM4 量產出貨,速度達 11.7 Gbps(較標準高 46%),頻寬為 HBM3E 的 2.7 倍,功耗效率提升 40%。
  • HBM4 將首先應用於 NVIDIA Rubin 加速器,Samsung 在 NVIDIA HBM4 供應中佔據 20% 以上份額,SK Hynix 超過 50%。
  • 記憶體已成為 AI 發展的關鍵戰略瓶頸,全球 HBM 銷售額預計 2026 年將增長三倍,記憶體產業收入有望於 2027 年達到 8,400 億美元。
  • Samsung 已規劃 HBM4E(16 層堆疊、48GB 容量),預計 2026 下半年推出,記憶體軍備競賽持續升級。
  • 香港應把握 AI 基礎設施投資機遇,重新定位在半導體供應鏈中的角色,並支持本地 AI 硬體相關研發。