產業動態

今日 AI 速報(2026年5月10日)

本期聚焦 AI 基礎設施進入『GW 級』擴張、對外暴露的自建 AI 服務風險升高,以及美國政府對模型發布前協調機制的討論。同時,雲端業者開始把自研加速器賣到客戶機房,AI 硬體供應鏈競爭加劇。

NVIDIA 與 IREN 推動最高 5GW DSX AI 基礎設施:從『買 GPU』走向『造 AI 工廠』

AI 訓練與推理需求持續把資料中心推向更高功率密度與更長期的產能規劃。最新合作顯示,產業焦點不再只是單一世代的 GPU 供貨,而是以標準化架構打造可複製的「AI 工廠」。這類合作通常同時涵蓋機房設計、散熱與供電方案、網路互連、營運流程與軟體堆疊,目的在於縮短交付時間並降低整體整合風險。

對企業用戶而言,這代表未來採購可能更像「買產能與交付能力」,而非單純買硬體。當供應商開始以參考設計與合作方的電力/土地/建置能力綁定,計畫延宕、監管條件、資本支出與交付節點將成為新的風險管理重點。香港市場雖不會直接複製美國超大型校區模式,但其趨勢會反映在區域雲端算力價格、可用性與跨境算力調度策略上。

約 100 萬個對外暴露的 AI 服務被盤點:自建 LLM/代理平台成為新攻擊面

自建推理服務、代理工作流與聊天介面近一年快速普及,但安全基線往往落後於部署速度。最新研究把焦點放在「對外可見」的 AI 相關服務:不少端點可能在未設置驗證、或使用預設高權限帳號的情況下直接暴露到公網。風險不只在模型本身,也包含提示詞、工具連線設定、工作流邏輯、聊天紀錄與整合到內部系統的憑證。

更棘手的是,許多團隊把 AI 專案視為實驗性質,忽略了它其實連到資料庫、票務系統、CRM 或雲端金鑰等高價值資產。一旦代理平台被接管,攻擊者可能改寫流程、竄改回覆、外傳資料,甚至把工具權限當作橫向移動的跳板。對企業的建議方向是:先盤點所有對外端點與子網域、將管理介面與推理 API 分離、預設啟用驗證與最小權限、補上審計與告警,並把「提示詞與工作流」視為需要保護的程式資產。

美國白宮研議模型發布前的政府協調/審視機制:安全與競爭之間的拉鋸

在高能力模型可能被用於網路攻擊、自動化滲透或生成欺騙內容的背景下,美國政府正討論更前置的模型發布協調方式,例如成立跨部門工作小組、要求更完整的風險評估,甚至讓情報體系在模型廣泛釋出前先行理解其能力與潛在濫用面。此類構想的支持者強調國安與資安外溢風險,反對者則擔心形成事前審批、拖慢產品迭代並改變市場競爭。

對香港讀者來說,重點在於:一旦主要經濟體把「模型發布」納入更強的政策工具箱,跨境服務供應、雲端模型可用性、以及企業採用新模型的合規流程都可能更複雜。企業內部也可能被迫建立更正式的模型上線審核,例如紅隊測試、外部依賴評估、資料治理與供應商條款審查,避免在政策轉向時措手不及。

Google 開始把 TPU 賣到客戶機房:雲端自研加速器走向『硬體供應』

雲端業者自研 AI 加速器過去多以「在自家雲端提供租用」的形式出現,但近期出現新的商業動向:把自研晶片直接供應給少數客戶,讓其部署到自有資料中心。這使得雲端業者不只是在雲上競爭,也開始在企業機房的硬體選型與供應鏈佈局中扮演更直接角色。

此舉可能帶來三個影響。第一,企業在訓練/推理成本上有更多議價與替代選項,特別是對長期固定負載的用戶。第二,軟體生態(框架支援、編譯器、監控、排程)會變得更重要,因為把晶片搬進機房後,客戶更在意可維運性與與既有堆疊的相容。第三,硬體供應不再只是「誰的 GPU 更強」,而是「誰能提供完整方案」:從晶片、網路、散熱到集群管理與開發者工具。對區域市場而言,這些變化可能逐步反映在雲端價格結構、採購策略,以及多雲/混合雲 AI 架構的設計取捨上。

返回首頁