← 返回新聞列表

AI 模型蒸餾戰爭:Anthropic 指控 DeepSeek、MiniMax、Moonshot 系統性竊取模型智慧

Anthropic 披露三家中國 AI 公司透過逾 24,000 個虛假帳戶、超過 1,600 萬次對話,對 Claude 模型發動協調性蒸餾攻擊。這場知識產權爭議不僅是一宗商業糾紛,更揭示了中美 AI 競爭中最敏感的灰色地帶——而在香港上市的 MiniMax,讓這座城市意外地站上了風暴中心。

一場蓄謀已久的「知識竊取」?

2026 年 3 月初,Anthropic 向外界披露了一份詳細的調查報告,指控三家中國 AI 公司——DeepSeek、Moonshot AI(月之暗面)和 MiniMax——對其旗艦模型 Claude 發動了大規模、有組織的「蒸餾攻擊」(distillation attack)。根據 Anthropic 的說法,這些公司創建了超過 24,000 個虛假帳戶,與 Claude 進行了逾 1,600 萬次對話交換,目的是系統性地從 Claude 的輸出中提取知識,用以訓練和增強自家模型。

所謂模型蒸餾(model distillation),在 AI 技術領域有其合法的學術淵源。2015 年,Geoffrey Hinton、Oriol Vinyals 和 Jeff Dean 在其經典論文中提出了知識蒸餾的概念:讓一個小型「學生」模型學習模仿大型「教師」模型的輸出行為,從而在較小的模型中「壓縮」大型模型的知識。這項技術本身是中性的,被廣泛應用於模型壓縮和部署優化。

然而,Anthropic 指控的並非學術上的知識蒸餾,而是一種商業層面的系統性竊取。按照 Anthropic 的敘述,被指控的三家公司利用商業代理服務(commercial proxy services)繞過 Anthropic 對中國地區的地理限制,以工業規模向 Claude 模型提交精心設計的查詢(query),然後將 Claude 的回覆作為訓練數據,用以提升自家模型的能力——尤其是在推理、編程和複雜問題解決等高價值領域。

Anthropic 指控的核心數據

  • 虛假帳戶數量:超過 24,000 個
  • 對話交換次數:超過 1,600 萬次
  • 被指控公司:DeepSeek、Moonshot AI(月之暗面)、MiniMax
  • 規避手段:使用商業代理服務繞過中國地區的地理限制
  • 目的:系統性提取 Claude 模型的知識用於自家模型訓練

蒸餾攻擊的技術細節與規模

要理解這場爭議的嚴重性,我們需要深入了解蒸餾攻擊的實際運作方式。與簡單地「複製」一個模型不同,蒸餾攻擊是一種更加隱蔽且技術含量更高的操作。攻擊者不需要獲取目標模型的權重或架構,只需大量收集模型的輸入-輸出對(input-output pairs),就能訓練一個模仿目標模型行為的新模型。

Anthropic 所描述的攻擊規模令人矚目。24,000 多個虛假帳戶意味着需要大量的電子郵件地址、支付方式和身份資訊來維持。1,600 萬次對話交換在商業 API 定價下可能涉及數百萬美元的費用。而使用商業代理服務繞過地理限制,則增加了另一層複雜性和成本。這些數字暗示的不是個別員工的投機行為,而是一種有組織、有預算、有技術支持的系統性操作。

從技術角度來看,這些查詢很可能經過精心設計,以最大化每次對話的「知識提取效率」。典型的蒸餾查詢會覆蓋模型的各種能力維度——從多步推理到代碼生成,從數學證明到語言理解——旨在全面「映射」目標模型的能力邊界。某些高級蒸餾技術還會使用對抗性查詢(adversarial queries),專門探測模型在邊界情況下的行為,以更精確地複製其決策邏輯。

不只是 Anthropic:OpenAI 的平行投訴

值得注意的是,Anthropic 並非唯一一家提出此類指控的美國 AI 公司。OpenAI 同期向美國國會議員提交了一份平行投訴,專門針對 DeepSeek 的蒸餾行為。OpenAI 聲稱有證據表明,DeepSeek 同樣利用類似手法從 GPT 系列模型中提取知識。兩家公司幾乎同時發聲,形成了一種「聯合陣線」的態勢。

當兩家在商業上激烈競爭的美國 AI 公司——Anthropic 和 OpenAI——在同一時間點對同一組中國競爭對手提出類似指控時,這件事的性質就超越了單純的商業糾紛,進入了地緣政治的領域。

OpenAI 的投訴直接送達美國立法機構而非法院,這一選擇本身就具有政治意涵。它暗示這些公司不僅尋求商業補救,還希望推動更廣泛的政策回應——可能包括更嚴格的出口管制、新的 AI 知識產權立法,或針對中國 AI 公司的制裁措施。

AI 社群的反彈:「你們自己也好不到哪裡去」

然而,Anthropic 和 OpenAI 的指控並未獲得 AI 社群的一致支持。相反,大量研究人員、開發者和評論者提出了尖銳的反駁,指出這些指控中存在深刻的矛盾和虛偽。

蒸餾是 AI 產業的「公開秘密」

批評者指出的第一個矛盾是:模型蒸餾在整個 AI 產業中被廣泛實踐,絕非中國公司的專利。OpenAI 本身就曾被指控使用蒸餾技術——有報導稱其部分模型的訓練數據中包含來自其他模型輸出的合成數據。Meta 的 Llama 系列模型同樣被認為在訓練過程中參考了 GPT-4 的輸出。事實上,幾乎所有主要 AI 實驗室都在某種程度上使用合成數據(synthetic data),而合成數據與蒸餾之間的界限往往模糊不清。

更根本的問題在於:如果蒸餾是不道德的,那麼 AI 公司從互聯網上大規模抓取版權內容來訓練模型又算什麼?OpenAI、Anthropic、Google 和 Meta 都面臨着來自出版商、藝術家、程式設計師和新聞機構的版權訴訟。《紐約時報》對 OpenAI 的訴訟、Getty Images 對 Stability AI 的訴訟、GitHub Copilot 引發的集體訴訟——這些案件的核心邏輯與蒸餾指控驚人地相似:未經授權使用他人的智力成果來訓練 AI 模型。

「當你未經作者同意使用數十億篇文章和圖像來訓練模型時,你稱之為『創新』和『合理使用』。當別人用你的模型輸出來訓練他們的模型時,你突然開始談論『智慧財產權保護』。這種雙重標準令人難以接受。」——一位匿名 AI 研究員在社交媒體上的評論,獲得數千次轉發

技術服務條款 vs. 法律效力

Anthropic 指控的法律基礎主要是其服務條款(Terms of Service),其中明確禁止使用 Claude 的輸出來訓練競爭模型。然而,服務條款的法律效力——特別是在國際語境下——是高度不確定的。違反服務條款通常是合同違約而非知識產權侵權,這在法律救濟的力度和範圍上存在巨大差異。

此外,AI 模型的輸出本身是否享有版權保護,目前在全球主要司法管轄區都是一個未決問題。美國版權局已經明確表示,純粹由 AI 生成的內容不受版權保護。如果 Claude 的輸出不享有版權,那麼「竊取」這些輸出的法律基礎就會被大幅削弱。

蒸餾爭議的兩面觀點

  • 支持 Anthropic 立場:系統性蒸餾攻擊違反服務條款、規避地理限制屬於蓄意行為、24,000 帳戶的規模顯示有組織的商業竊取
  • 質疑 Anthropic 立場:蒸餾是業界普遍做法、美國 AI 公司自身面臨大量版權訴訟、服務條款的跨境法律效力存疑、AI 輸出的版權地位未定
  • 灰色地帶:合法合成數據生成與非法蒸餾之間的界限模糊、不同司法管轄區對 AI 知識產權的法律框架差異巨大

地緣政治維度:AI 競爭的新前線

將這場爭議單純視為商業糾紛是天真的。它發生在中美科技競爭持續升溫的大背景下,涉及的利害關係遠超任何單一公司的利益。

從晶片禁運到模型禁運?

美國政府近年來已經對中國實施了多輪 AI 晶片出口管制,限制 NVIDIA、AMD 等公司向中國出售先進 GPU。但 DeepSeek 等中國 AI 公司證明,即使在硬件受限的情況下,通過算法創新和效率優化依然可以開發出具有競爭力的模型。蒸餾指控可能為美國政策制定者提供一個新的理由,將管制範圍從硬件擴展到軟件和模型層面——例如限制中國公司訪問美國 AI 公司的 API,或要求美國 AI 公司對外國用戶實施更嚴格的身份驗證。

然而,這種「模型禁運」的可行性值得懷疑。AI 模型的輸出是信息,而信息的流動比硬件更難控制。任何試圖限制 AI 模型訪問的措施都可能被代理服務、VPN 或第三方中介輕易繞過——事實上,Anthropic 指控中描述的正是這種情況。

知識產權規範的全球分歧

蒸餾爭議暴露了全球 AI 知識產權規範的深刻分歧。美國、歐盟、中國和日本在 AI 訓練數據的合理使用、模型輸出的版權歸屬、以及蒸餾行為的合法性等問題上,有着截然不同的法律框架和文化態度。

在中國,國家知識產權局對 AI 相關知識產權的保護正在逐步加強,但其側重點更多在於保護中國企業的 AI 創新成果,而非限制中國企業從外國模型中獲取知識。在日本,文化廳已經明確 AI 訓練數據的使用在很大程度上不受版權限制。這種全球法律環境的碎片化,使得任何一方試圖在國際層面執行其知識產權主張都變得極為困難。

對 AI 開放性的寒蟬效應

一些觀察者擔心,如果蒸餾指控導致美國 AI 公司對外國用戶實施更嚴格的限制,可能會產生廣泛的「寒蟬效應」(chilling effect),影響全球 AI 研究的開放性和合作。學術研究人員、小型創業公司和發展中國家的開發者可能都會受到波及——他們依賴商業 AI 模型的 API 進行研究和開發,而更嚴格的訪問控制可能會不分青紅皂白地限制所有人的使用。

如果 AI 公司開始像對待潛在間諜一樣對待每一個 API 用戶,那麼受害最大的不會是有資源繞過限制的大型企業,而是那些真正依賴這些服務進行創新的小型團隊和個人開發者。

香港視角:MiniMax 的 IPO 與跨境 AI 治理

在這場全球爭議中,香港佔據了一個獨特而敏感的位置。被指控的三家中國 AI 公司之一——MiniMax——已在香港聯交所上市,這使得香港的監管機構和投資者直接捲入了這場風暴。

MiniMax:從估值明星到爭議中心

MiniMax 是中國 AI 創業生態中的明星企業之一,以其在大語言模型和多模態 AI 方面的技術實力著稱。選擇香港作為 IPO 地點,既是對香港作為國際金融中心地位的認可,也反映了中國 AI 公司希望通過香港連接國際資本市場的戰略考量。然而,Anthropic 的蒸餾指控為 MiniMax 的公眾形象和市場估值帶來了不確定性。

對於香港投資者而言,這場爭議提出了幾個關鍵問題:MiniMax 是否在 IPO 披露文件中充分揭示了與蒸餾相關的法律風險?如果 Anthropic 的指控成立,可能面臨的法律責任和商業影響有多大?更廣泛地說,投資中國 AI 公司需要如何評估與美國 AI 公司之間的知識產權風險?

香港作為 AI 治理的橋樑角色

香港長期以來在中國與國際社會之間扮演橋樑角色,這一角色在 AI 治理領域同樣適用。香港擁有獨立的普通法司法制度、國際化的金融監管體系,以及與內地和全球市場的深度連結。這些特質使得香港有潛力成為跨境 AI 知識產權爭議的調解和仲裁中心。

具體而言,香港可以考慮以下角色:

  • 知識產權仲裁中心:香港國際仲裁中心(HKIAC)可以開發專門的 AI 知識產權爭議解決機制,為中美 AI 公司之間的糾紛提供一個中立的解決平台。
  • AI 合規標準制定:香港可以率先制定針對 AI 模型蒸餾和合成數據使用的合規指引,為在港上市的 AI 公司提供清晰的行為準則。
  • 上市監管更新:香港聯交所可能需要更新其上市規則,要求 AI 公司在招股書中披露與模型訓練數據來源和方法相關的風險因素。
  • 投資者保護框架:證監會可以就 AI 公司的特殊風險——包括知識產權爭議和地緣政治風險——發布專門的投資者指引。

香港的戰略機遇

  • 金融角色:MiniMax 的香港 IPO 使香港直接參與中美 AI 知識產權爭議,也帶來了制定前沿監管框架的機遇
  • 法律角色:香港的普通法體系和國際仲裁經驗,使其適合成為 AI 知識產權爭議的解決平台
  • 技術角色:香港的大學和研究機構可以在 AI 模型審計和蒸餾檢測技術方面建立專長
  • 政策角色:作為「一國兩制」下的特別行政區,香港可以在中國與西方 AI 治理規範之間發揮建設性的調解作用

蒸餾檢測的技術挑戰

Anthropic 指控的一個核心技術問題是:如何證明某個模型確實是通過蒸餾另一個模型而得到的?這在技術上是一個極其困難的問題。

「模型指紋」的局限性

AI 研究者已經開發了一些「模型指紋」(model fingerprinting)技術,試圖通過分析模型在特定輸入上的行為模式來識別蒸餾關係。例如,如果兩個模型在某些邊界情況下表現出高度相似的錯誤模式,這可能暗示存在蒸餾關係。然而,這種方法存在嚴重的假陽性問題——不同模型可能因為使用了類似的訓練數據或架構而自然地表現出相似行為,這並不等同於蒸餾。

更複雜的是,如果蒸餾者在使用蒸餾數據訓練後,再用額外的數據進行微調(fine-tuning),就可能有效地「洗掉」蒸餾的痕跡,使得最終模型的行為與原始模型之間的直接關聯變得模糊。這就像洗錢一樣——經過幾輪「清洗」,原始資金的來源就難以追溯。

帳戶行為分析

Anthropic 更有可能依賴的證據是帳戶行為分析(account behavior analysis)。24,000 多個帳戶的註冊模式、查詢模式、使用的代理 IP 地址、支付方式的關聯性等元數據,可能構成比模型行為本身更有力的證據。如果這些帳戶表現出明顯的協調行為——例如在相同時間段內提交大量覆蓋相似主題的查詢,使用相同的代理服務,或者帳戶之間存在技術上的關聯——那麼「有組織的蒸餾操作」的指控就更加站得住腳。

然而,即使帳戶行為證據確鑿,要將這些帳戶的行為歸因於特定的公司而非個人行為者或第三方服務提供商,仍然是一個重大的舉證挑戰。Anthropic 需要建立從虛假帳戶到被指控公司之間的「證據鏈」,這在跨境語境下尤為困難。

更深層的問題:AI 知識的本質

蒸餾爭議觸及了一個更深層的哲學問題:AI 模型的「知識」究竟屬於誰?

當 Anthropic 花費數億美元訓練 Claude 模型時,它創造的是一個能夠生成有用輸出的統計系統。但 Claude 的「知識」並非 Anthropic 原創——它來源於互聯網上數十億人產生的文本、代碼和創意作品。Anthropic 的貢獻在於架構設計、訓練方法和算力投入——但模型的「智慧」本質上是對人類集體知識的一種統計壓縮。

如果是這樣,那麼當 DeepSeek 從 Claude 的輸出中提取「知識」時,它提取的究竟是 Anthropic 的專有智慧,還是經由 Anthropic 模型過濾後的人類集體知識?這個問題沒有簡單的答案,但它揭示了當前 AI 知識產權框架的根本不足——我們試圖用為實體商品和傳統創意作品設計的法律概念,來處理一種全新的、本質上是「知識的知識」的產物。

AI 模型蒸餾爭議的真正意義,不在於哪家公司對哪家公司造成了多少損害,而在於它迫使整個產業——以及全球的法律和監管體系——正視一個長期被迴避的問題:在 AI 時代,知識產權的邊界究竟在哪裡?

產業影響與前瞻

短期影響

在短期內,這場爭議可能導致以下變化:

  • API 訪問收緊:Anthropic、OpenAI 等公司可能會實施更嚴格的用戶身份驗證和使用監控措施,增加 API 濫用的成本和難度。
  • 立法壓力:美國國會可能加速推進 AI 知識產權保護立法,尤其是針對跨境蒸餾行為的規制。
  • 市場波動:被指控公司——特別是在香港上市的 MiniMax——可能面臨股價壓力和投資者信心下降。
  • 行業對立:中美 AI 公司之間的合作和技術交流可能進一步減少,加速「AI 脫鉤」趨勢。

中長期趨勢

從更長遠的角度來看,蒸餾爭議可能推動以下趨勢:

  • AI 模型「水印」技術的發展:研究人員正在開發能夠在模型輸出中嵌入不可見「水印」的技術,使得蒸餾行為更容易被檢測和追溯。
  • 國際 AI 知識產權框架的形成:類似於 WIPO(世界知識產權組織)在傳統知識產權領域的角色,國際社會可能需要建立新的機構或機制來處理 AI 特有的知識產權問題。
  • 自主創新的加速:如果外國模型的訪問受到限制,中國 AI 公司將被迫加大自主研發投入,這可能在短期內造成效率損失,但長期來看可能催生更多原創性的技術突破。
  • 開源模型的地位提升:在商業 API 訪問受限的環境下,開源模型可能成為更受歡迎的選擇,因為其使用限制通常更為寬鬆。

結語:一場沒有贏家的戰爭?

Anthropic 對 DeepSeek、MiniMax 和 Moonshot AI 的蒸餾指控,表面上是一宗知識產權糾紛,實質上是中美 AI 競爭在知識產權領域的一次正面碰撞。它揭示了 AI 產業中一個根本性的矛盾:AI 模型的價值建立在對人類集體知識的吸收和轉化之上,但當這種「知識吸收」的對象從公共互聯網轉向競爭對手的商業模型時,道德和法律的邊界就變得模糊不清。

對於 Anthropic 和 OpenAI 而言,指控蒸餾是保護商業利益的合理行為,但也不可避免地暴露了它們自身在訓練數據方面的版權爭議。對於被指控的中國公司而言,即使蒸餾行為確實存在,它們也可以指向整個產業的「共犯結構」——在一個每家公司都在某種程度上「借用」他人知識的生態系統中,單獨指責某一方的做法很難令人信服。

對於香港而言,這場爭議既是挑戰也是機遇。作為 MiniMax 的上市地,香港需要在投資者保護和市場發展之間取得平衡。但更重要的是,香港有機會利用其獨特的法律、金融和地緣優勢,在全球 AI 知識產權治理的新秩序中佔據一個建設性的位置。當中美兩方在 AI 領域的對抗日益加劇時,世界需要一個能夠促進對話和調解的中間地帶——而香港,或許正是那個地方。

這場蒸餾戰爭的最終結局,很可能不會由任何一家公司或一個國家的法律來決定,而是由整個國際社會對 AI 時代知識產權本質的重新理解來塑造。在那一天到來之前,我們正在見證的是規則被打破、邊界被測試、秩序被重建的混亂過程——而這,或許正是創新最原始的面貌。

本文要點總結

  • Anthropic 指控 DeepSeek、Moonshot AI 和 MiniMax 透過逾 24,000 個虛假帳戶和 1,600 萬次對話交換,對 Claude 模型發動系統性蒸餾攻擊。
  • OpenAI 同步向美國國會議員提出針對 DeepSeek 的平行投訴,形成美國 AI 公司的「聯合陣線」。
  • AI 社群對指控存在強烈反彈:蒸餾是業界普遍做法,美國 AI 公司自身面臨大量版權訴訟,存在明顯的雙重標準。
  • 爭議具有深刻的地緣政治維度,可能推動 AI 管制從硬件層面擴展到模型和知識層面。
  • MiniMax 的香港 IPO 使香港直接捲入爭議,但也為香港在 AI 知識產權治理中扮演橋樑角色帶來戰略機遇。
  • 蒸餾爭議的根本問題在於:AI 時代的知識產權邊界究竟在哪裡?現有法律框架尚不足以回答這個問題。