← 返回新聞列表

五角大樓威脅將 Anthropic 列為「供應鏈風險」:軍用 AI 史上最嚴峻的政企對峙

這是美國國防史上的一個前所未有的時刻:五角大樓正式威脅要將 Anthropic 列為「供應鏈風險」(supply chain risk),原因僅僅是這家公司拒絕讓其 AI 模型 Claude 被無限制地用於軍事用途。與此同時,Anthropic 內部安全研究員的離職潮與末日警告,為這場對峙增添了一層令人不安的底色。當國家安全的鐵拳撞上 AI 安全的理念,整個科技產業正被迫在兩者之間作出可能無法回頭的選擇。

「供應鏈風險」:一個前所未有的威脅

在軍事採購的語境中,「供應鏈風險」這個標籤的殺傷力是核彈級的。一旦被正式列為供應鏈風險,Anthropic 將不僅失去現有的國防合約,還會被有效地排除在整個聯邦政府的採購體系之外。更致命的是,這個標籤具有連鎖效應——與 Anthropic 合作的其他國防承包商,包括 Palantir 在內,也將面臨壓力,被迫從自身供應鏈中移除 Anthropic 的技術。這不是簡單的「取消合約」,而是一種系統性的排斥。

值得強調的是,這是美國國防部歷史上首次公開威脅要對一家 AI 公司使用這種行政手段。過去,「供應鏈風險」的標籤主要針對的是華為、卡巴斯基這類被認為具有國家安全威脅的外國科技公司。如今,五角大樓將同樣的機制對準一家美國本土 AI 公司,僅僅因為它堅持自己的使用政策底線——這一信號的政治意涵是深遠的。

衝突的升級軌跡:從委內瑞拉到全面對峙

要理解這場對峙如何走到今天的地步,需要回溯過去數週的事態發展。今年一月,五角大樓透過 Palantir 的合作架構,在突襲委內瑞拉、逮捕馬杜羅(Maduro)的行動中使用了 Claude 處理機密情報。行動結束後,有消息指 Anthropic 內部對此提出了質疑——儘管 Claude 的角色限於情報分析而非直接致命決策,但公司高層據稱對其技術被用於一場造成人員傷亡的軍事行動感到不安。

正是這一質疑成為了引爆全面衝突的導火線。五角大樓將 Anthropic 的態度解讀為一種「不可靠」的表現:一家國防供應商居然在事後質疑軍事行動的合理性?這在華盛頓的國安圈看來,幾乎等同於背叛。緊接着,五角大樓首席技術官 Emil Michael 公開發聲,將衝突推向了一個新的高度。

「Anthropic 的做法不是民主的。在一個民主國家,民選政府決定如何使用軍事力量,而不是由矽谷的工程師來決定。AI 公司不應該有權否決國防決策。」——五角大樓首席技術官 Emil Michael

Michael 的措辭經過了精心計算。他沒有在技術層面爭論 Claude 的軍事適用性,而是將整場辯論重新框架為一個關於「民主治理」的問題:誰有權決定 AI 在戰爭中的角色——是人民選出的政府,還是一家私營科技公司?這種修辭策略極其有效,因為它將 Anthropic 從「負責任的企業」重新定位為「反民主的科技精英」。

Anthropic 的紅線:什麼是不可讓步的?

在這場對峙中,Anthropic 的立場並非完全拒絕與國防部合作。事實上,Claude 已經在透過 Palantir 的架構在國防部的機密網絡中運行,執行情報分析等任務。Anthropic 真正堅守的紅線有兩條:第一,不允許 Claude 被用於對美國公民的大規模監控;第二,不允許 Claude 被整合到全自主武器系統中——即不經人類最終決策便可自行發動致命攻擊的系統。

這兩條紅線並非隨意設定。大規模監控的禁令直接關係到美國公民的憲法權利——第四修正案保護公民免受不合理搜查和扣押。如果一家 AI 公司允許其技術被用於大規模監控美國公民,它可能面臨嚴重的法律風險和公眾反彈。至於全自主武器,這不僅是 Anthropic 的政策禁區,也是國際人道法領域中最具爭議的議題之一。包括國際紅十字會在內的多個國際組織,長期以來一直呼籲禁止「脫離人類控制的致命自主武器」。

然而,五角大樓顯然希望消除這些限制。隨着自主作戰系統和 AI 驅動的情報監控技術的快速發展,國防部越來越不耐煩於供應商設定的使用邊界。在軍方看來,戰場上的每一分猶豫都可能導致生命損失,而 AI 的使用限制恰恰可能製造這種致命的猶豫。

Anthropic 可接受使用政策中的關鍵禁令

  • 武器開發:明確禁止使用 Claude 開發、改進或部署任何形式的武器系統
  • 大規模監控:禁止將 Claude 用於對特定人群或公民的系統性監視
  • 暴力促進:禁止任何可能直接或間接促進暴力行為的使用方式
  • 自主致命決策:禁止將 Claude 整合到無需人類批准即可自主發動攻擊的系統中

「不民主」的修辭:誰在重新定義規則?

Emil Michael 稱 Anthropic 的立場「不民主」,這個論述值得深入剖析,因為它觸及了一個在科技治理領域尚未解決的根本問題:在民主社會中,私營企業是否有權基於倫理判斷拒絕政府的技術需求?

從一個角度看,Michael 的論點有其邏輯基礎。民主體制的核心原則之一是文官控制軍隊,而軍事技術決策傳統上屬於政府的行政權範疇。一家公司單方面決定哪些軍事應用是「可接受的」,確實在某種意義上僭越了民主授權的決策機制。

但從另一個角度看,這種論述存在嚴重的邏輯缺陷。民主社會同樣保障企業的自主經營權和契約自由。一家公司選擇不出售特定產品或服務,這是基本的商業自由,與「反民主」毫無關係。更何況,Anthropic 的使用限制恰恰是為了保護民主社會的核心價值——公民隱私權和人類對致命武力的控制權。弔詭的是,五角大樓試圖用「民主」的名義來迫使一家企業放棄保護民主價值的政策。

這場修辭之爭揭示了一個更深層的權力博弈:在 AI 成為國家安全基礎設施的時代,政府是否可以要求——甚至強制——私營企業無條件配合其技術需求?如果可以,那麼 AI 企業設定的任何倫理邊界都將變得毫無意義。如果不可以,那麼國防部的技術戰略就可能被一小群矽谷企業的價值觀所左右。

安全研究員的出走:來自 Anthropic 內部的裂痕

這場外部對峙的同時,Anthropic 內部也在經歷一場靜默的危機。2 月 9 日,Anthropic Safeguards Research 團隊的研究員 Mrinank Sharma 正式辭職,並在其離職聲明中發出了令人震動的警告:「世界正處於危難之中」(the world is in peril)。Sharma 在 Anthropic 的研究涵蓋 AI 生物恐怖主義防禦和系統安全性評估等關鍵領域,他選擇離開這個領域去攻讀詩歌學位——這個決定本身就是一種無聲的控訴。

同一天,OpenAI 研究員 Zoë Hitzig 也因反對公司引入廣告業務而離職。儘管 Hitzig 的離開與五角大樓的爭議無直接關聯,但它與 Sharma 的辭職共同描繪了一幅令人擔憂的行業圖景:那些最理解 AI 風險的人,正在紛紛離開他們原本試圖從內部改變的機構。

「我一再看到,真正讓我們的價值觀主導我們的行為有多麼困難。」——Mrinank Sharma,前 Anthropic 安全研究員

Sharma 的這句話放在五角大樓對峙的背景下來讀,獲得了一種新的沉重意味。如果 Anthropic——這家以安全為創立使命的公司——的內部研究員都認為公司無法真正堅守其價值觀,那麼在面對國防部的系統性壓力時,Anthropic 的紅線還能維持多久?安全研究員的離開不僅代表人才的流失,更象徵着一種信念的破碎:也許從企業內部推動 AI 安全,本身就是一個注定失敗的策略。

180 億美元的引力場:國防 AI 市場的誘惑

要理解 Anthropic 面臨的壓力之大,必須認識到國防 AI 市場的規模。2026 年,美國國防 AI 支出預計達到 180 億美元,且這個數字正在以每年超過 25% 的速度增長。這是一個由納稅人資金支撐的龐大市場,對於資本密集型的 AI 公司而言,其吸引力不言而喻。

在這個 180 億美元的引力場中,Anthropic 的競爭者們毫不猶豫地衝了進去。Palantir 的市值已突破 2,000 億美元,其核心業務就是為國防和情報機構提供數據分析。Scale AI 正在成為國防部 AI 標註和訓練數據的主要供應商。Anduril Industries 以 280 億美元的估值專注於自主國防系統。Shield AI 剛完成 10 億美元融資,開發自主無人機系統。這些公司不僅不設使用限制,還以「為國防服務」作為核心商業定位。

對 Anthropic 而言,被排除在國防市場之外的代價不僅是失去合約收入。在 AI 產業的軍備競賽中,國防合約往往帶來最具挑戰性的技術需求和最充裕的研發資金。失去這些合約可能意味着在技術發展速度上落後於那些深度嵌入國防體系的競爭者。更重要的是,「供應鏈風險」的標籤可能嚇退潛在的商業客戶——如果一家公司被自己國家的政府視為不可靠,其他企業客戶會怎麼想?

國防 AI 市場的關鍵參與者

  • Palantir:市值超 2,000 億美元,深耕國防情報分析平台,是 Claude 進入五角大樓機密網絡的合作橋樑
  • Scale AI:國防部 AI 數據標註主要供應商,積極拓展軍事 AI 訓練數據業務
  • Anduril Industries:估值 280 億美元,專注自主國防系統和邊境安全技術
  • Shield AI:完成 10 億美元融資,開發自主無人機和防禦系統,估值 120 億美元
  • OpenAI:2024 年刪除軍事用途禁令,積極爭取國防合約

AI 安全與國家安全:一道不可能的方程式?

這場對峙的深層本質,是兩種截然不同的「安全」觀在進行碰撞。

五角大樓所理解的「安全」,是國家安全——保護美國及其盟友免受外部威脅,維持軍事優勢,在必要時投射武力。在這一框架下,AI 技術是一種戰略資源,其效用的最大化等同於國家安全的增強。任何限制 AI 軍事應用的行為,都被視為對國家安全的潛在削弱。

Anthropic 所理解的「安全」,是 AI 安全——確保人工智能系統不被用於造成不可控的傷害,維持人類對 AI 系統的有效控制,防止技術被濫用於壓迫和破壞。在這一框架下,無限制的軍事應用恰恰是最大的安全威脅之一,因為它可能加速自主武器的發展,削弱人類對致命決策的控制,並為大規模監控開啟技術大門。

問題在於,這兩種安全觀並非簡單的互補關係,而是存在根本性的張力。增強國家安全可能要求放鬆 AI 安全的限制;而堅守 AI 安全的原則可能被視為削弱國家安全。在這道方程式中,沒有一個解可以同時滿足兩邊。

歷史的迴響:核科學家的先例

這場對峙讓人不由得想起二十世紀中葉核科學家群體與國防體制之間的張力。J. Robert Oppenheimer 領導曼哈頓計劃開發了原子彈,卻在之後反對氫彈的研發,最終被剝奪了安全許可。Leo Szilard 最早推動了核裂變的軍事應用研究,卻成為了核軍備控制最積極的倡導者。

歷史告訴我們,那些最理解一項技術危險性的人,往往也是最堅定地主張限制其使用的人。但歷史同樣告訴我們,這些聲音在國家安全的壓力面前,幾乎總是被邊緣化。Oppenheimer 的安全許可被撤銷;Szilard 的請願書從未送達總統的辦公桌。今天,Anthropic 和它的安全研究員們正走在同一條路上。

產業的分水嶺:兩條道路的分化

五角大樓對 Anthropic 的威脅,正在加速整個 AI 產業的路線分化。一條路通向「全面配合」——以 OpenAI、xAI 為代表,它們已經修改或從未設定過軍事用途的限制,全力擁抱國防市場。另一條路是「有條件合作」——Anthropic 試圖走的中間路線,接受某些國防應用但堅守特定紅線。

五角大樓的「供應鏈風險」威脅,本質上是在告訴整個產業:中間路線是不存在的。你要嘛全面配合,要嘛被排除在外。這種非此即彼的壓力,將迫使更多 AI 公司作出明確的選擇。而在商業利益和政治壓力的雙重作用下,選擇「全面配合」的公司將遠多於選擇堅守紅線的公司。

這種分化的長遠後果值得深思。如果所有主要 AI 公司都放棄了使用限制,那麼對 AI 軍事應用的唯一約束將完全依賴政府的自我節制和尚不存在的國際規範。考慮到歷史上政府在技術軍事化方面的記錄,這不是一個令人安心的前景。

國際維度:全球 AI 軍事治理的真空

這場對峙發生在一個國際 AI 軍事治理幾乎不存在的背景下。儘管聯合國已多年討論「致命自主武器系統」(LAWS)的規管問題,但在中美俄等主要軍事大國的反對下,任何具有約束力的國際條約都遙不可及。

這意味着,AI 在軍事領域的使用邊界,實際上正在由美國五角大樓和矽谷的科技公司在雙邊博弈中劃定。Anthropic 的紅線之所以重要,不僅因為它影響一家公司的商業命運,更因為它代表了一種在全球範圍內日益稀缺的立場——由技術開發者主動設定的倫理約束。一旦這種自發性的約束被系統性地瓦解,在國際規範出現之前,將不存在任何有效的機制來限制 AI 在戰場上的應用範圍。

與此同時,中國、俄羅斯和其他軍事大國也在加速發展軍用 AI,且不受類似的企業倫理約束。這種國際競爭動態為五角大樓提供了最有力的論據:如果美國的 AI 公司自我設限,而對手國家的 AI 公司不設限,那麼結果就是美國在軍事技術上的相對劣勢。這個論據在邏輯上是有力的,但它忽略了一個關鍵問題——如果所有國家都放棄了對 AI 軍事應用的約束,全人類面臨的風險將遠大於任何一個國家的相對劣勢。

對香港的啟示:夾縫中的抉擇

這場對峙對香港的科技生態系統有着直接而深遠的影響。

技術供應鏈的地緣政治化

首先,「供應鏈風險」這個標籤的使用,標誌着 AI 技術供應鏈的進一步地緣政治化。如果連美國本土的 AI 公司都可能因為倫理立場被貼上這個標籤,那麼在中美科技對抗的大背景下,香港的科技公司在國際市場上面臨的不確定性將更加嚴峻。這也意味着,香港企業在選擇 AI 技術供應商和合作夥伴時,需要將地緣政治風險納入核心考量。

AI 倫理框架的建設

其次,Anthropic 的經歷提醒我們,企業層面的 AI 倫理承諾在面對國家力量時是脆弱的。香港在建設自身的 AI 治理框架時,不能過度依賴企業自律,而應建立具有法律效力的規範。特別是在涉及監控技術和安全應用的領域,清晰的法律邊界不僅保護公民權利,也為企業提供了抵禦政治壓力的法律屏障。

安全人才的機遇

最後,安全研究員的出走潮意味着全球有一批頂級 AI 安全人才正在尋找新的方向。如果香港的大學和研究機構能夠提供獨立的研究環境和有競爭力的條件,有機會吸引這些在美國感到失望和邊緣化的安全研究者,從而提升香港在全球 AI 安全研究版圖中的地位。

前路展望:不可避免的攤牌

五角大樓與 Anthropic 的這場對峙,不太可能以妥協告終。雙方的核心立場存在根本性的衝突,而「供應鏈風險」威脅的公開化更壓縮了雙方迴旋的空間。最可能的結果是 Anthropic 被迫作出選擇:要嘛實質性地放鬆其使用限制,要嘛接受被排除在國防市場之外的後果。

無論 Anthropic 最終作何選擇,這場對峙已經改變了遊戲規則。它向所有 AI 公司傳遞了一個清晰的信號——在國家安全面前,企業的倫理承諾可能隨時被要求讓步。它也向全世界表明,在缺乏國際規範的情況下,AI 軍事應用的邊界將由最強勢的參與者來劃定。

Mrinank Sharma 說世界正處於危難之中。Emil Michael 說 Anthropic 的立場不民主。這兩句話看似矛盾,卻共同指向了同一個事實:我們正站在 AI 技術與軍事力量深度融合的門檻上,而關於這種融合應該遵循什麼規則、受到什麼約束的問題,至今沒有任何令人滿意的答案。在這個答案出現之前,類似的對峙只會越來越多、越來越激烈。

本文要點總結

  • 五角大樓首次公開威脅將 Anthropic 列為「供應鏈風險」,這是美國國防史上針對 AI 公司的最強硬行政手段,可能導致 Anthropic 被系統性排除在整個聯邦政府採購體系之外。
  • 衝突起因於 Anthropic 拒絕開放 Claude 的無限制軍事使用,特別是在大規模監控和全自主武器方面堅守紅線。五角大樓首席技術官 Emil Michael 稱此立場「不民主」。
  • Anthropic 安全研究員 Mrinank Sharma 於 2 月 9 日辭職並警告「世界正處於危難之中」,與 OpenAI 研究員 Zoë Hitzig 同日離職,折射出 AI 安全人員對行業方向的深層失望。
  • 美國國防 AI 支出預計 2026 年達 180 億美元,Palantir、Scale AI、Anduril 等公司全力擁抱國防市場,Anthropic 的堅守使其面臨日益孤立的處境。
  • 這場對峙正在消滅 AI 產業的「中間路線」,迫使所有公司在「全面配合國防需求」與「被排除在外」之間作出非此即彼的選擇,其長遠後果將影響全球 AI 軍事治理的走向。