← 返回新聞列表

MCP —— AI 界的「USB-C」正式成為行業標準:從 Anthropic 協定到 Linux 基金會全球治理

一個誕生不到 18 個月的開放協定,如何讓互為競爭對手的 AI 巨頭坐到同一張談判桌,並為代理式工作流程從實驗室走向生產線鋪就最後一塊基石

假設你手邊有十款不同品牌的手機和筆記型電腦,每款設備都需要一條專屬的充電線。每次出門你的包裡塞滿了不同規格的線材,接口不通用,數據傳輸方式各異。直到 USB-C 出現,一條線解決所有問題。今天,AI 產業正在經歷一場與 USB-C 極其相似的標準化革命——而這場革命的核心,就是 Model Context Protocol(MCP)。

2024 年 11 月,Anthropic 悄然推出 MCP 作為一項開放標準,旨在為 AI 模型連接外部工具和數據源提供統一協定。僅僅 13 個月後的 2025 年 12 月,Anthropic 將 MCP 捐贈給 Linux 基金會新成立的代理式 AI 基金會(Agentic AI Foundation, AAIF),由 Anthropic、Block 和 OpenAI 共同創辦。到了 2026 年初,OpenAI、Google DeepMind、Microsoft、AWS、Cloudflare、Bloomberg 等科技巨頭均已宣布採納或支援 MCP。一個由單一公司發起的技術協定,在不到兩年的時間裡,成為了 AI 代理基礎設施的事實標準。這在技術史上實屬罕見。

N×M 難題:MCP 為何不可或缺

要理解 MCP 的價值,首先需要理解它所解決的核心問題——業界所稱的「N×M 整合難題」。

在 MCP 出現之前,如果市場上有 N 個 AI 模型和 M 個外部工具或數據源,理論上需要開發 N×M 套各自獨立的整合方案。假設一家企業使用 Claude、GPT 和 Gemini 三個模型,同時需要連接 Slack、Salesforce、Jira 和內部資料庫四個系統,那麼就需要開發 3×4 = 12 套獨立的連接器。每新增一個模型或工具,整合成本都會呈乘法式增長。對於資源有限的中小企業而言,這幾乎是不可逾越的技術壁壘。

MCP 的解決思路與 USB 標準如出一轍:定義一個統一的中間協定層。每個 AI 模型只需實現一次 MCP 客戶端(Client),每個工具或數據源只需實現一次 MCP 伺服器(Server),兩者即可自由配對。N×M 的整合複雜度驟降為 N+M。三個模型加四個系統,只需要 3+4 = 7 套實現,而非 12 套。更關鍵的是,生態系統越大,這種效率優勢越顯著——當 N 和 M 各自達到數百甚至數千時,差距是天文數字。

MCP 客戶端-伺服器架構核心概念

  • MCP 客戶端(Client):AI 代理端,負責發起連接請求。Claude、GPT、Gemini 等模型均可作為客戶端
  • MCP 伺服器(Server):工具與數據源端,暴露能力供 AI 代理調用。可以是資料庫、API、SaaS 應用程式等
  • 動態工具發現(Dynamic Tool Discovery):AI 代理自動偵測並了解可用的 MCP 伺服器及其功能,無需硬編碼
  • 標準化通訊:基於 JSON-RPC 2.0 的結構化訊息格式,確保跨平台一致性
  • 官方 SDK 支援:提供 Python、TypeScript、C#、Java 四種主要語言的軟體開發套件

動態工具發現是 MCP 架構中最具前瞻性的設計之一。傳統的 API 整合要求開發者事先了解目標系統的能力並進行硬編碼配置。而 MCP 的動態發現機制允許 AI 代理在運行時自動偵測環境中可用的 MCP 伺服器,了解每個伺服器提供的功能描述,並根據當前任務自主決定調用哪些工具。這意味著一個 AI 代理被部署到新環境後,無需任何額外配置,就能自動「認識」周遭可用的工具和數據源——就像你把一台新筆記型電腦插上 USB-C 集線器,它會自動識別所有連接的外設。

從 Anthropic 私有到 Linux 基金會公有:AAIF 的治理革命

一項開放標準的生命力,不僅取決於技術優越性,更取決於治理結構的公信力。歷史上,由單一公司主導的「開放」標準往往面臨信任危機——社區擔心標準制定者會利用先發優勢或隱性影響力來維護自身利益。Anthropic 顯然深諳此道。

2025 年 12 月,Anthropic 做出了一個在短期內看似「割捨利益」、但在長期戰略上極為精明的決定:將 MCP 的治理權完全捐贈給 Linux 基金會新成立的代理式 AI 基金會(AAIF)。AAIF 由 Anthropic、Block(前 Square)和 OpenAI 共同創辦,採用開放的委員會治理模式,任何符合條件的組織都可以申請加入並參與標準的演進。

「將 MCP 交給中立的基金會治理,是確保這個協定能夠真正成為『公共基礎設施』的唯一途徑。沒有任何一家公司——包括 Anthropic 自己——應該單獨掌控 AI 代理與真實世界連接的方式。」

這一決定的影響是深遠的。首先,它消除了競爭對手的顧慮。OpenAI 和 Google DeepMind 之所以願意全面支持 MCP,很大程度上是因為這個標準不再由競爭對手控制。其次,它為企業客戶提供了信心——選擇基於 MCP 的技術棧不會造成對任何單一 AI 供應商的鎖定。第三,它為開發者社區注入了參與動力——貢獻程式碼和提出改進建議的成果,將由一個公正的治理機構來評估和採納。

值得注意的是,AAIF 的治理模式參照了 Linux 基金會旗下其他成功項目(如 Kubernetes、Node.js)的經驗。技術決策由技術指導委員會(TSC)負責,成員通過選舉產生,避免了單一公司的過度影響。這種經過實踐驗證的治理框架,讓 MCP 從第一天起就站在了可持續發展的堅實基礎上。

科技巨頭的全面擁抱:各有盤算

MCP 能在如此短的時間內獲得幾乎所有主要 AI 參與者的支持,絕非僅僅因為技術出色。每個參與者都有自己的戰略考量。

OpenAI:從抗拒到引領

OpenAI 的態度轉變最為戲劇化。在 MCP 推出之初,OpenAI 曾嘗試推廣自己的工具整合方案。但隨著開發者社區迅速向 MCP 聚攏,OpenAI 選擇了務實路線——不僅宣布支援 MCP,還將其 Agent Skills 開放標準與 MCP 生態系統對接,並成為 AAIF 的共同創辦者。OpenAI 的計算很清楚:與其在整合標準上與 Anthropic 消耗戰,不如將精力集中在模型能力的競爭上,同時確保自己在標準治理中擁有話語權。

Google DeepMind:基礎設施級投入

Google 的回應最具規模。除了宣布 Gemini 全面支援 MCP 客戶端外,Google 正在建立託管型 MCP 伺服器(Managed MCP Servers),讓企業能夠通過 Google Cloud 一鍵部署和管理 MCP 伺服器。這與 Google 一貫的雲端基礎設施策略一脈相承——不只提供模型,更要成為運行 AI 代理的平台。託管 MCP 伺服器意味著企業無需自行處理伺服器的部署、擴展和安全問題,大幅降低了代理式 AI 的入門門檻。

Microsoft、AWS 與 Cloudflare:生態卡位

Microsoft 通過 Azure 和 GitHub Copilot 的 MCP 整合,進一步鞏固其在企業開發工具鏈中的核心地位。AWS 則將 MCP 融入 Bedrock 平台,讓使用 AWS 基礎設施的企業能夠無縫接入 MCP 生態。Cloudflare 的加入尤其值得關注——作為全球最大的邊緣運算平台之一,Cloudflare 對 MCP 的支援意味著 MCP 伺服器可以在邊緣節點運行,為低延遲場景(如即時客服代理)提供關鍵基礎設施。Bloomberg 的參與則證明了金融行業對標準化 AI 工具連接的急切需求。

代理式 AI 的生產實戰:三大企業案例

MCP 的真正價值最終要在實際業務場景中得到驗證。2026 年初的幾個標誌性案例,證明代理式工作流程已經從概念驗證走向規模化生產。

ServiceNow:90% IT 請求自主解決

ServiceNow 是最早將 MCP 與代理式 AI 結合應用的企業之一。通過建構一套連接內部知識庫、工單系統、配置管理資料庫(CMDB)和自動化執行引擎的 MCP 伺服器矩陣,ServiceNow 的 AI 代理現在能夠自主處理 90% 的 IT 服務請求——從密碼重設、軟體安裝到網絡配置變更。人類 IT 工程師的角色從「逐一處理工單」轉變為「監督代理工作並處理例外情況」。這不是概念展示,而是日復一日運行的生產系統。

Jira:人機協同的新工作模式

Atlassian 的 Jira 平台現在允許 AI 代理和人類在同一個專案板上並肩工作。AI 代理可以自動認領符合其能力範圍的任務(如撰寫單元測試、更新文檔、處理 bug 分類),完成後在 Jira 中提交工作成果,並將需要人類判斷的決策點標記出來。整個流程通過 MCP 實現——Jira 作為 MCP 伺服器暴露其項目管理功能,AI 代理作為 MCP 客戶端與之互動。這種人機協同模式打破了傳統的「AI 輔助人類」範式,開創了「AI 與人類共同承擔任務」的新工作方式。

AT&T:小模型 + 多代理堆疊削減 90% AI 成本

AT&T 的案例提供了一個極具啟發性的成本優化思路。面對龐大的客戶服務量和高昂的大語言模型 API 費用,AT&T 選擇了一條非常規路徑:用小型語言模型(SLM)替代大型模型來驅動各個專責代理,再通過多代理堆疊(multi-agent stack)和 MCP 將它們協調起來。每個小型代理專注於一個狹窄的任務領域(如查詢賬單、故障排除、套餐推薦),成本僅為通用大模型的一小部分。多代理之間通過 MCP 通訊和協作,共同處理複雜的客戶請求。最終結果:AI 運營成本降低了 90%,而客戶滿意度反而提升。這證明了 MCP 不僅是連接工具的協定,更是實現高效多代理架構的關鍵膠水。

「AT&T 的案例打破了『更大的模型才能做更多事情』的迷思。在 MCP 的協調下,一群精準的小型代理可以比一個龐大的通用模型做得更好、更便宜。這對成本敏感的香港中小企業尤其具有參考價值。」

安全隱患:MCP 的阿基里斯之踵

然而,MCP 的快速普及也帶來了前所未有的安全挑戰。當 AI 代理能夠自主連接和操作數十個外部系統時,攻擊面也隨之急劇擴大。2026 年初的多項安全研究揭示了令人擔憂的現狀。

提示注入(Prompt Injection):跨系統攻擊鏈

傳統的提示注入攻擊主要影響單一模型的輸出。但在 MCP 環境下,攻擊者可以在 AI 代理可能存取的任何數據源中埋入惡意指令。例如,在一封看似普通的電子郵件中隱藏指令,當 AI 代理通過 MCP 讀取該郵件時,可能被誘導去執行攻擊者預設的操作——如存取敏感資料庫、修改系統配置,甚至向其他系統發送惡意請求。MCP 的動態工具發現特性在此成為雙刃劍:代理能夠自動發現並連接新的工具,也意味著它可能被引導去連接惡意的 MCP 伺服器。

工具權限漏洞(Tool Permission Exploits)

MCP 伺服器對外暴露的功能和權限範圍,直接決定了 AI 代理能做什麼。如果 MCP 伺服器的權限配置過於寬鬆,AI 代理可能獲得遠超業務需求的系統存取權。攻擊者可以利用這種權限過度授予,通過受損的 AI 代理進行橫向移動——從一個低敏感度的系統滲透到高敏感度的核心系統。這與傳統 IT 安全中的「最小權限原則」形成了直接衝突,因為代理式 AI 的價值恰恰在於其廣泛的連接能力。

影子代理 IT(Shadow Agentic IT)

隨著 MCP 的易用性提升,企業內部的業務部門開始自行部署 AI 代理和 MCP 伺服器,繞過 IT 部門的審查和治理流程。這種「影子代理 IT」現象與十年前的「影子 IT」問題如出一轍,但風險更高——因為 AI 代理不只是存取數據,還能主動採取行動。一個未經安全審查的 MCP 伺服器,可能成為企業防線中不為人知的缺口。

2026 年必須建立的 MCP 安全基礎設施

  • MCP 防火牆(MCP Firewalls):監控和過濾 AI 代理與 MCP 伺服器之間的所有通訊,阻止異常行為和未授權存取
  • 治理註冊表(Governance Registries):集中管理企業內所有 MCP 伺服器的註冊、權限配置和合規狀態
  • 代理行為審計追蹤:完整記錄 AI 代理通過 MCP 執行的每一個操作,支援事後分析和合規審計
  • 動態權限邊界:根據任務上下文動態調整 AI 代理的存取權限,而非靜態的全開或全關
  • MCP 伺服器認證體系:建立類似 SSL 證書的信任機制,確保 AI 代理只連接經過驗證的伺服器

2026 路線圖:Agent-to-Agent 與遞迴代理系統

MCP 的技術演進遠未停止。AAIF 已公布的 2026 年路線圖中,兩個方向尤其引人注目。

Agent-to-Agent(A2A)通訊

目前的 MCP 主要解決 AI 代理與工具之間的連接。下一步是實現 AI 代理之間的直接通訊。想像一個場景:一個負責市場分析的代理發現了異常數據,它可以直接通過 MCP 通知負責風險管理的代理,後者自動啟動風險評估流程,並在必要時聯繫負責合規的代理。整個過程無需人類介入,多個專業化代理自組織地協作完成複雜任務。Agent-to-Agent 通訊將是實現這種自組織協作的技術基礎。

遞迴代理系統(Recursive Agentic Systems)

更具前瞻性的是遞迴代理系統的概念——AI 代理不僅能調用工具,還能動態地創建和管理其他 AI 代理。一個「協調者代理」可以根據任務的複雜度和性質,自動拆分子任務、生成專責子代理、分配資源、監控進度,並在子任務完成後合併結果。這種遞迴結構讓代理式系統能夠處理任意複雜度的問題,而無需人類事先定義工作流程的每一個步驟。

當然,遞迴代理系統也引發了更深層的控制與安全問題。當代理能夠自主創建其他代理時,如何確保整個系統不會偏離預設目標?如何防止「代理失控」的連鎖反應?這些問題正是 AAIF 安全工作組目前重點研究的課題。

香港企業視角:MCP 時代的戰略佈局

對於香港企業而言,MCP 的標準化帶來的不僅是技術便利,更是戰略層面的重新思考。

首先,香港作為國際金融中心,銀行、保險、資產管理等行業對 AI 代理的需求尤為迫切。Bloomberg 作為 MCP 支持者之一,已經在探索將市場數據、新聞分析和交易執行能力通過 MCP 伺服器暴露給 AI 代理。香港金融機構可以借助這一趨勢,建構自己的 MCP 伺服器矩陣,讓合規審查、客戶盡職調查(KYC/AML)、風險監控等流程實現代理化自動化,同時保持對數據主權的完全控制。

其次,MCP 的供應商中立特性對香港企業尤為重要。在中美科技博弈的大背景下,香港企業需要保持技術棧的靈活性——今天用 Claude,明天可能需要切換到 Gemini 或本地部署的開源模型。基於 MCP 的整合架構確保了這種切換的成本最小化。企業投資在 MCP 伺服器端的開發成果,不會因為更換 AI 模型而報廢。

第三,AT&T 的小模型加多代理堆疊案例,對香港中小企業尤其具有啟示意義。長期以來,高昂的 AI API 費用是中小企業部署 AI 代理的主要障礙。MCP 讓企業能夠用低成本的專責小模型替代昂貴的通用大模型,同時通過協定層的協調保持整體系統的智能水平。一家本地零售企業可以部署一個專責庫存管理的小型代理、一個專責客戶服務的代理和一個專責數據分析的代理,三者通過 MCP 協作,總成本可能僅為單一大模型方案的十分之一。

然而,香港企業也必須正視安全挑戰。香港金融管理局(HKMA)和證券及期貨事務監察委員會(SFC)對金融科技應用有嚴格的監管要求。企業在部署 MCP 連接的 AI 代理時,必須確保完善的審計追蹤、權限管理和風險控制機制。建議企業在 2026 年優先建立 MCP 治理框架,包括 MCP 伺服器的認證與註冊制度、代理行為的監控與審計系統,以及針對提示注入攻擊的防禦措施。

本文要點總結

  • MCP 解決 N×M 難題:Anthropic 於 2024 年 11 月推出的 Model Context Protocol,將 AI 模型與工具的整合複雜度從 N×M 降至 N+M,被業界譽為「AI 的 USB-C」
  • AAIF 開放治理:2025 年 12 月 MCP 捐贈給 Linux 基金會代理式 AI 基金會,由 Anthropic、Block、OpenAI 共同創辦,確保中立性與可持續發展
  • 全行業採納:OpenAI、Google DeepMind、Microsoft、AWS、Cloudflare、Bloomberg 均已支持 MCP,Google 更建立託管型 MCP 伺服器服務
  • 生產級落地:ServiceNow 實現 90% IT 請求自主處理;Jira 支援人機協同;AT&T 通過小模型 + 多代理堆疊削減 90% AI 成本
  • 安全是最大挑戰:提示注入跨系統攻擊、工具權限漏洞、影子代理 IT 是三大威脅,業界預測 2026 年「MCP 防火牆」和「治理註冊表」將成為必備安全基礎設施
  • 2026 路線圖:Agent-to-Agent 通訊和遞迴代理系統將把 MCP 從工具連接協定升級為完整的代理協作基礎設施
  • 香港企業啟示:金融機構應建構 MCP 伺服器矩陣實現合規自動化;中小企業可借鑑 AT&T 模式降低 AI 成本;所有企業應優先建立 MCP 治理框架以應對監管要求