AI 模型蒸餾戰爭:Anthropic 指控 DeepSeek、MiniMax、Moonshot 系統性竊取模型智慧
Anthropic 披露三家中國 AI 公司透過逾 24,000 個虛假帳戶、超過 1,600 萬次對話,對 Claude 模型發動協調性蒸餾攻擊。這場知識產權爭議不僅是一宗商業糾紛,更揭示了中美 AI 競爭中最敏感的灰色地帶——而在香港上市的 MiniMax,讓這座城市意外地站上了風暴中心。
Anthropic 披露三家中國 AI 公司透過逾 24,000 個虛假帳戶、超過 1,600 萬次對話,對 Claude 模型發動協調性蒸餾攻擊。這場知識產權爭議不僅是一宗商業糾紛,更揭示了中美 AI 競爭中最敏感的灰色地帶——而在香港上市的 MiniMax,讓這座城市意外地站上了風暴中心。
2026 年 3 月初,Anthropic 向外界披露了一份詳細的調查報告,指控三家中國 AI 公司——DeepSeek、Moonshot AI(月之暗面)和 MiniMax——對其旗艦模型 Claude 發動了大規模、有組織的「蒸餾攻擊」(distillation attack)。根據 Anthropic 的說法,這些公司創建了超過 24,000 個虛假帳戶,與 Claude 進行了逾 1,600 萬次對話交換,目的是系統性地從 Claude 的輸出中提取知識,用以訓練和增強自家模型。
所謂模型蒸餾(model distillation),在 AI 技術領域有其合法的學術淵源。2015 年,Geoffrey Hinton、Oriol Vinyals 和 Jeff Dean 在其經典論文中提出了知識蒸餾的概念:讓一個小型「學生」模型學習模仿大型「教師」模型的輸出行為,從而在較小的模型中「壓縮」大型模型的知識。這項技術本身是中性的,被廣泛應用於模型壓縮和部署優化。
然而,Anthropic 指控的並非學術上的知識蒸餾,而是一種商業層面的系統性竊取。按照 Anthropic 的敘述,被指控的三家公司利用商業代理服務(commercial proxy services)繞過 Anthropic 對中國地區的地理限制,以工業規模向 Claude 模型提交精心設計的查詢(query),然後將 Claude 的回覆作為訓練數據,用以提升自家模型的能力——尤其是在推理、編程和複雜問題解決等高價值領域。
要理解這場爭議的嚴重性,我們需要深入了解蒸餾攻擊的實際運作方式。與簡單地「複製」一個模型不同,蒸餾攻擊是一種更加隱蔽且技術含量更高的操作。攻擊者不需要獲取目標模型的權重或架構,只需大量收集模型的輸入-輸出對(input-output pairs),就能訓練一個模仿目標模型行為的新模型。
Anthropic 所描述的攻擊規模令人矚目。24,000 多個虛假帳戶意味着需要大量的電子郵件地址、支付方式和身份資訊來維持。1,600 萬次對話交換在商業 API 定價下可能涉及數百萬美元的費用。而使用商業代理服務繞過地理限制,則增加了另一層複雜性和成本。這些數字暗示的不是個別員工的投機行為,而是一種有組織、有預算、有技術支持的系統性操作。
從技術角度來看,這些查詢很可能經過精心設計,以最大化每次對話的「知識提取效率」。典型的蒸餾查詢會覆蓋模型的各種能力維度——從多步推理到代碼生成,從數學證明到語言理解——旨在全面「映射」目標模型的能力邊界。某些高級蒸餾技術還會使用對抗性查詢(adversarial queries),專門探測模型在邊界情況下的行為,以更精確地複製其決策邏輯。
值得注意的是,Anthropic 並非唯一一家提出此類指控的美國 AI 公司。OpenAI 同期向美國國會議員提交了一份平行投訴,專門針對 DeepSeek 的蒸餾行為。OpenAI 聲稱有證據表明,DeepSeek 同樣利用類似手法從 GPT 系列模型中提取知識。兩家公司幾乎同時發聲,形成了一種「聯合陣線」的態勢。
當兩家在商業上激烈競爭的美國 AI 公司——Anthropic 和 OpenAI——在同一時間點對同一組中國競爭對手提出類似指控時,這件事的性質就超越了單純的商業糾紛,進入了地緣政治的領域。
OpenAI 的投訴直接送達美國立法機構而非法院,這一選擇本身就具有政治意涵。它暗示這些公司不僅尋求商業補救,還希望推動更廣泛的政策回應——可能包括更嚴格的出口管制、新的 AI 知識產權立法,或針對中國 AI 公司的制裁措施。
然而,Anthropic 和 OpenAI 的指控並未獲得 AI 社群的一致支持。相反,大量研究人員、開發者和評論者提出了尖銳的反駁,指出這些指控中存在深刻的矛盾和虛偽。
批評者指出的第一個矛盾是:模型蒸餾在整個 AI 產業中被廣泛實踐,絕非中國公司的專利。OpenAI 本身就曾被指控使用蒸餾技術——有報導稱其部分模型的訓練數據中包含來自其他模型輸出的合成數據。Meta 的 Llama 系列模型同樣被認為在訓練過程中參考了 GPT-4 的輸出。事實上,幾乎所有主要 AI 實驗室都在某種程度上使用合成數據(synthetic data),而合成數據與蒸餾之間的界限往往模糊不清。
更根本的問題在於:如果蒸餾是不道德的,那麼 AI 公司從互聯網上大規模抓取版權內容來訓練模型又算什麼?OpenAI、Anthropic、Google 和 Meta 都面臨着來自出版商、藝術家、程式設計師和新聞機構的版權訴訟。《紐約時報》對 OpenAI 的訴訟、Getty Images 對 Stability AI 的訴訟、GitHub Copilot 引發的集體訴訟——這些案件的核心邏輯與蒸餾指控驚人地相似:未經授權使用他人的智力成果來訓練 AI 模型。
「當你未經作者同意使用數十億篇文章和圖像來訓練模型時,你稱之為『創新』和『合理使用』。當別人用你的模型輸出來訓練他們的模型時,你突然開始談論『智慧財產權保護』。這種雙重標準令人難以接受。」——一位匿名 AI 研究員在社交媒體上的評論,獲得數千次轉發
Anthropic 指控的法律基礎主要是其服務條款(Terms of Service),其中明確禁止使用 Claude 的輸出來訓練競爭模型。然而,服務條款的法律效力——特別是在國際語境下——是高度不確定的。違反服務條款通常是合同違約而非知識產權侵權,這在法律救濟的力度和範圍上存在巨大差異。
此外,AI 模型的輸出本身是否享有版權保護,目前在全球主要司法管轄區都是一個未決問題。美國版權局已經明確表示,純粹由 AI 生成的內容不受版權保護。如果 Claude 的輸出不享有版權,那麼「竊取」這些輸出的法律基礎就會被大幅削弱。
將這場爭議單純視為商業糾紛是天真的。它發生在中美科技競爭持續升溫的大背景下,涉及的利害關係遠超任何單一公司的利益。
美國政府近年來已經對中國實施了多輪 AI 晶片出口管制,限制 NVIDIA、AMD 等公司向中國出售先進 GPU。但 DeepSeek 等中國 AI 公司證明,即使在硬件受限的情況下,通過算法創新和效率優化依然可以開發出具有競爭力的模型。蒸餾指控可能為美國政策制定者提供一個新的理由,將管制範圍從硬件擴展到軟件和模型層面——例如限制中國公司訪問美國 AI 公司的 API,或要求美國 AI 公司對外國用戶實施更嚴格的身份驗證。
然而,這種「模型禁運」的可行性值得懷疑。AI 模型的輸出是信息,而信息的流動比硬件更難控制。任何試圖限制 AI 模型訪問的措施都可能被代理服務、VPN 或第三方中介輕易繞過——事實上,Anthropic 指控中描述的正是這種情況。
蒸餾爭議暴露了全球 AI 知識產權規範的深刻分歧。美國、歐盟、中國和日本在 AI 訓練數據的合理使用、模型輸出的版權歸屬、以及蒸餾行為的合法性等問題上,有着截然不同的法律框架和文化態度。
在中國,國家知識產權局對 AI 相關知識產權的保護正在逐步加強,但其側重點更多在於保護中國企業的 AI 創新成果,而非限制中國企業從外國模型中獲取知識。在日本,文化廳已經明確 AI 訓練數據的使用在很大程度上不受版權限制。這種全球法律環境的碎片化,使得任何一方試圖在國際層面執行其知識產權主張都變得極為困難。
一些觀察者擔心,如果蒸餾指控導致美國 AI 公司對外國用戶實施更嚴格的限制,可能會產生廣泛的「寒蟬效應」(chilling effect),影響全球 AI 研究的開放性和合作。學術研究人員、小型創業公司和發展中國家的開發者可能都會受到波及——他們依賴商業 AI 模型的 API 進行研究和開發,而更嚴格的訪問控制可能會不分青紅皂白地限制所有人的使用。
如果 AI 公司開始像對待潛在間諜一樣對待每一個 API 用戶,那麼受害最大的不會是有資源繞過限制的大型企業,而是那些真正依賴這些服務進行創新的小型團隊和個人開發者。
在這場全球爭議中,香港佔據了一個獨特而敏感的位置。被指控的三家中國 AI 公司之一——MiniMax——已在香港聯交所上市,這使得香港的監管機構和投資者直接捲入了這場風暴。
MiniMax 是中國 AI 創業生態中的明星企業之一,以其在大語言模型和多模態 AI 方面的技術實力著稱。選擇香港作為 IPO 地點,既是對香港作為國際金融中心地位的認可,也反映了中國 AI 公司希望通過香港連接國際資本市場的戰略考量。然而,Anthropic 的蒸餾指控為 MiniMax 的公眾形象和市場估值帶來了不確定性。
對於香港投資者而言,這場爭議提出了幾個關鍵問題:MiniMax 是否在 IPO 披露文件中充分揭示了與蒸餾相關的法律風險?如果 Anthropic 的指控成立,可能面臨的法律責任和商業影響有多大?更廣泛地說,投資中國 AI 公司需要如何評估與美國 AI 公司之間的知識產權風險?
香港長期以來在中國與國際社會之間扮演橋樑角色,這一角色在 AI 治理領域同樣適用。香港擁有獨立的普通法司法制度、國際化的金融監管體系,以及與內地和全球市場的深度連結。這些特質使得香港有潛力成為跨境 AI 知識產權爭議的調解和仲裁中心。
具體而言,香港可以考慮以下角色:
Anthropic 指控的一個核心技術問題是:如何證明某個模型確實是通過蒸餾另一個模型而得到的?這在技術上是一個極其困難的問題。
AI 研究者已經開發了一些「模型指紋」(model fingerprinting)技術,試圖通過分析模型在特定輸入上的行為模式來識別蒸餾關係。例如,如果兩個模型在某些邊界情況下表現出高度相似的錯誤模式,這可能暗示存在蒸餾關係。然而,這種方法存在嚴重的假陽性問題——不同模型可能因為使用了類似的訓練數據或架構而自然地表現出相似行為,這並不等同於蒸餾。
更複雜的是,如果蒸餾者在使用蒸餾數據訓練後,再用額外的數據進行微調(fine-tuning),就可能有效地「洗掉」蒸餾的痕跡,使得最終模型的行為與原始模型之間的直接關聯變得模糊。這就像洗錢一樣——經過幾輪「清洗」,原始資金的來源就難以追溯。
Anthropic 更有可能依賴的證據是帳戶行為分析(account behavior analysis)。24,000 多個帳戶的註冊模式、查詢模式、使用的代理 IP 地址、支付方式的關聯性等元數據,可能構成比模型行為本身更有力的證據。如果這些帳戶表現出明顯的協調行為——例如在相同時間段內提交大量覆蓋相似主題的查詢,使用相同的代理服務,或者帳戶之間存在技術上的關聯——那麼「有組織的蒸餾操作」的指控就更加站得住腳。
然而,即使帳戶行為證據確鑿,要將這些帳戶的行為歸因於特定的公司而非個人行為者或第三方服務提供商,仍然是一個重大的舉證挑戰。Anthropic 需要建立從虛假帳戶到被指控公司之間的「證據鏈」,這在跨境語境下尤為困難。
蒸餾爭議觸及了一個更深層的哲學問題:AI 模型的「知識」究竟屬於誰?
當 Anthropic 花費數億美元訓練 Claude 模型時,它創造的是一個能夠生成有用輸出的統計系統。但 Claude 的「知識」並非 Anthropic 原創——它來源於互聯網上數十億人產生的文本、代碼和創意作品。Anthropic 的貢獻在於架構設計、訓練方法和算力投入——但模型的「智慧」本質上是對人類集體知識的一種統計壓縮。
如果是這樣,那麼當 DeepSeek 從 Claude 的輸出中提取「知識」時,它提取的究竟是 Anthropic 的專有智慧,還是經由 Anthropic 模型過濾後的人類集體知識?這個問題沒有簡單的答案,但它揭示了當前 AI 知識產權框架的根本不足——我們試圖用為實體商品和傳統創意作品設計的法律概念,來處理一種全新的、本質上是「知識的知識」的產物。
AI 模型蒸餾爭議的真正意義,不在於哪家公司對哪家公司造成了多少損害,而在於它迫使整個產業——以及全球的法律和監管體系——正視一個長期被迴避的問題:在 AI 時代,知識產權的邊界究竟在哪裡?
在短期內,這場爭議可能導致以下變化:
從更長遠的角度來看,蒸餾爭議可能推動以下趨勢:
Anthropic 對 DeepSeek、MiniMax 和 Moonshot AI 的蒸餾指控,表面上是一宗知識產權糾紛,實質上是中美 AI 競爭在知識產權領域的一次正面碰撞。它揭示了 AI 產業中一個根本性的矛盾:AI 模型的價值建立在對人類集體知識的吸收和轉化之上,但當這種「知識吸收」的對象從公共互聯網轉向競爭對手的商業模型時,道德和法律的邊界就變得模糊不清。
對於 Anthropic 和 OpenAI 而言,指控蒸餾是保護商業利益的合理行為,但也不可避免地暴露了它們自身在訓練數據方面的版權爭議。對於被指控的中國公司而言,即使蒸餾行為確實存在,它們也可以指向整個產業的「共犯結構」——在一個每家公司都在某種程度上「借用」他人知識的生態系統中,單獨指責某一方的做法很難令人信服。
對於香港而言,這場爭議既是挑戰也是機遇。作為 MiniMax 的上市地,香港需要在投資者保護和市場發展之間取得平衡。但更重要的是,香港有機會利用其獨特的法律、金融和地緣優勢,在全球 AI 知識產權治理的新秩序中佔據一個建設性的位置。當中美兩方在 AI 領域的對抗日益加劇時,世界需要一個能夠促進對話和調解的中間地帶——而香港,或許正是那個地方。
這場蒸餾戰爭的最終結局,很可能不會由任何一家公司或一個國家的法律來決定,而是由整個國際社會對 AI 時代知識產權本質的重新理解來塑造。在那一天到來之前,我們正在見證的是規則被打破、邊界被測試、秩序被重建的混亂過程——而這,或許正是創新最原始的面貌。