← 返回新聞列表

五角大廈給 Anthropic 5 點鐘最後期限:Claude 軍事用途限制引爆美國 AI 安全最大憲政危機

美國國防部長 Pete Hegseth 向 Anthropic CEO Dario Amodei 下達閣員級最後通牒:在2月27日下午5時01分前,開放 Claude 供軍方「所有合法用途」無限制使用,否則後果自負。這場具體時間、具體要求、具體威脅的對峙,將一場持續已久的 AI 安全原則爭議,瞬間升級為一場涉及企業自主、政府強制與國家安全三者之間最根本張力的憲政性危機。

最新進展

截至本文撰寫時(2026年2月28日),最後期限已過。Anthropic 是否妥協、五角大廈是否採取後續行動,結果仍不明朗。本文將梳理事件脈絡與深層意義,並持續追蹤。

一個時間點,一場危機的解剖

下午5時01分。這個精確到分鐘的時間戳,本身就是一種刻意為之的強硬姿態。國防部長 Pete Hegseth 給出的最後期限不是「本週內」,不是「月底前」,而是特定日期的特定時刻——這種精確性在外交和商業談判中通常意味着:發出方已不再尋求協商空間,而是在施加最大限度的心理壓力。

事件的核心爭議並不複雜:Anthropic 對其旗艦 AI 模型 Claude 設有軍事用途限制,明確禁止或限制涉及自主武器系統與大規模監控的應用。美國國防部(DoD)認為這些限制妨礙了軍方的正常作業需求,並要求 Anthropic 開放「所有合法用途」的無限制訪問。Anthropic 迄今拒絕全面鬆綁,理由是這些限制是其安全承諾的核心組成部分。

但這場爭議的真正意義,遠不止於一家公司與一個政府部門之間的商業糾紛。它觸及了幾個在 AI 時代至關重要、卻從未被充分討論的根本問題:私人企業是否有權為其技術設定道德邊界?政府可以以國家安全為由強制推翻企業的安全政策嗎?「安全優先」的 AI 承諾,在國家機器的壓力下究竟能撐多久?

事件關鍵節點

早期:Anthropic 制定 Claude 使用政策,明確限制自主武器與大規模監控等軍事用途,視為安全承諾的組成部分。
此前:美國國防部與 Anthropic 就 Claude 軍事部署展開談判,部分有限度的軍事應用已獲批准(如情報分析輔助)。
2026年2月:國防部長 Pete Hegseth 直接向 Anthropic CEO Dario Amodei 下達閣員級最後通牒,要求2月27日下午5時01分前開放所有合法軍事用途。
2月27日下午5時01分:最後期限到達。結果未明。
2月28日:事態持續發展中。

Anthropic 的安全困境:3,000 億美元與一份承諾

要理解這場危機,必須先理解 Anthropic 的矛盾處境。這家公司在最近一輪融資中以 3,800 億美元估值籌得 300 億美元,投資方陣容中包含與美國政府關係密切的多個主權基金及科技風投。換言之,支撐 Anthropic 龐大估值的資本,部分來自於美國政府所代表的利益共同體——而這個共同體如今正是向它施壓的一方。

Dario Amodei 是全球最具影響力的 AI 安全倡導者之一。他離開 OpenAI、創立 Anthropic 的核心動機,正是對 AI 系統在部署加速過程中可能造成不可逆傷害的深切憂慮。他的姐姐 Daniela Amodei 擔任 Anthropic 總裁,兩兄妹共同塑造了公司的安全文化——在業界,Anthropic 以其嚴格的模型評估方法(Constitutional AI)和謹慎的商業化節奏著稱。

Anthropic 的軍事限制並非出於反軍事情緒,而是針對具體風險場景的工程性防護措施。該公司最擔憂的兩個領域是:

  • 自主武器系統:允許 AI 在無人類監督的情況下作出攻擊決策,可能導致無法問責的致命後果,且一旦錯誤鏈形成,人類幾乎沒有介入機會。
  • 大規模監控:軍事級別的 AI 監控能力若被轉用於針對平民的情報蒐集,將嚴重侵蝕公民自由,且這種侵蝕往往以「國家安全」的名義被合理化,缺乏有效制衡。

這些擔憂並非無中生有。歷史上,軍事技術的「功能蔓延」(mission creep)是有據可查的規律——最初用於特定目的的能力,往往在政治壓力或官僚慣性的驅動下被擴展到遠超初始範疇的領域。

Anthropic 的困境在於:它的估值建立在「安全優先」的品牌承諾之上,但它的資本來源卻包含了那些最希望它放棄這一承諾的力量。這是一個結構性的自我矛盾,遲早要面對清算時刻。

五角大廈的邏輯:「所有合法用途」的擴張性解讀

從美國國防部的角度看,其要求也有其內在邏輯。「所有合法用途」這一措辭是關鍵。美國法律授權軍方從事的行動範圍極廣——從情報蒐集、後勤優化、戰略分析,到實際作戰輔助,絕大多數都在「合法」範疇之內。因此,「所有合法用途」的要求實際上等同於無限制開放,只排除明確違法的行為——而這條線的位置,本身就是一個充滿爭議的法律灰區。

更深層的問題是:在現行美國法律框架下,軍方使用 AI 輔助自主打擊決策究竟合不合法?這個問題目前沒有明確的司法解釋。國防部的立場是,只要有人類在決策鏈中的某個環節存在,即使是高度自動化的打擊系統也可被視為「合法」。但 Anthropic 認為,這種解釋實際上為真正意義上的自主武器打開了後門。

Hegseth 選擇直接向 Anthropic CEO 下最後通牒,而非透過常規的政府採購或合規渠道施壓,本身就是一種反常的越級行為。這表明國防部在常規渠道上已遭遇足夠大的阻力,不得不訴諸政治高壓。這種方式的副作用是:它使這場原本屬於商業合規範疇的爭議,帶上了鮮明的政治對抗色彩。

政策背景:「創新優先」行政令與同業壓力

2025年12月,白宮發布了一份以「創新優先」為核心理念的 AI 行政令,明確要求減少對 AI 部署的監管障礙,並隱含地鼓勵將 AI 能力全面應用於國防目的。這份行政令為五角大廈向 Anthropic 施壓提供了一定的政策依據——至少從行政命令的字面精神看,對 AI 軍事用途設定「不必要限制」與白宮立場相悖。

同業競爭壓力是 Anthropic 面臨的另一個現實威脅。OpenAI 早已大幅放寬軍事用途限制,Google 在 Project Nimbus(為以色列政府提供雲端服務)上的爭議表明其邊界更為寬鬆,而 Palantir 更是以軍事和情報市場為主要業務方向。如果 Anthropic 堅持現有限制,國防部完全可以轉向這些競爭對手——而這對 Anthropic 而言不僅是商業損失,更可能在投資者眼中構成對其長期競爭力的質疑。

主要 AI 公司軍事政策對比

  • OpenAI:已修訂政策,允許廣泛軍事用途,與五角大廈有直接合約關係。
  • Google / DeepMind:Project Nimbus 爭議後,對政府和軍事合約採取相對開放態度。
  • Palantir:商業模式以軍事和情報機構為核心客戶,幾乎無限制。
  • Anthropic:明確限制自主武器與大規模監控用途,是主要大型 AI 公司中限制最嚴格的。
  • Meta(Llama):開源模型,幾乎無法實施使用限制,軍方可自由部署。

憲政維度:私人公司能否對抗政府的技術徵用?

這場爭議在法律層面觸及了一個在數碼時代尚無清晰判例的根本問題:私人 AI 公司是否有法律權利——乃至義務——拒絕政府對其技術的特定使用需求?

傳統上,美國政府可透過多種途徑強制徵用私人技術:國防生產法(Defense Production Act)授權行政機關在緊急情況下指示私人企業優先服務政府需求;政府採購合約可設定使用條件;針對國家安全企業的出口管制和外資審查(CFIUS)機制也可間接施壓。但這些工具通常適用於硬件和製造業,對於軟件服務公司——尤其是 AI 模型服務商——的適用性存在重大法律不確定性。

Anthropic 的 Claude 是一種服務,而非一種產品。Anthropic 對其使用設定條款,法律地位類似於任何其他服務提供商設定服務條款。政府可以選擇不使用這項服務,但能否強制改變服務條款,目前沒有明確的法律依據。如果政府試圖通過立法或行政命令強制要求 AI 公司開放所有合法政府用途,這將是一場曠日持久的憲法訴訟——涉及第一修正案的言論自由(AI 輸出是否構成言論)、合約自由,以及政府監管權力的邊界。

「允許所有合法用途」聽起來合理,但它的真正含義取決於誰來定義「合法」。在美國,軍事行動的合法性邊界歷來由行政部門自我解釋,而非由獨立司法機構實時裁定。這正是 Anthropic 最深層的顧慮所在。

香港與亞洲視角:地緣政治棋局中的 AI 邊界

這場爭議對香港及大中華地區的觀察者而言,具有特殊的地緣政治意義。如果 Anthropic 最終屈服於國防部壓力,全面開放 Claude 的軍事用途,這將發出一個明確信號:美國最先進的商用 AI 系統,將不設限地服務於美國軍事戰略目標。在中美科技博弈持續升溫的背景下,這意味着頂級 AI 能力與美國軍事力量之間的邊界將進一步模糊乃至消失。

對於香港而言,此事的影響是雙重的。一方面,香港作為國際金融中心和科技樞紐,依賴穩定的全球 AI 生態和開放的技術訪問。如果美國開始將頂級 AI 系統的使用與軍事和安全審查捆綁,非美國盟友地區的企業和研究機構可能面臨更複雜的合規環境。另一方面,此事也進一步推動各方加速開發自主的 AI 能力,以減少對單一來源的依賴。

更廣義地說,這場爭議是「AI 治理碎片化」這一全球趨勢的一個縮影。歐盟的 AI 法案、美國的「創新優先」行政令、中國的 AI 監管框架,以及英國、日本、韓國、印度各自的 AI 政策,正在形成一個截然不同的全球 AI 治理拼圖——而私人 AI 公司必須在這個拼圖中找到自己的位置。Anthropic 今天面對的困境,是每一家試圖在全球市場上堅守某種原則邊界的 AI 公司,遲早都將面對的困境。

行業的「靈魂時刻」:從「安全優先」到「部署優先」的歷史性倒退

2016年前後,大多數頂尖 AI 研究機構還在認真討論如何確保 AI 在部署前充分對齊人類價值觀。到了 2022年,ChatGPT 的爆炸性成功徹底改變了行業節奏——「先部署,再完善」的邏輯開始主導商業決策。到了 2026年,我們看到的是:一個明確堅守「安全優先」立場的公司,正在被自己國家的政府以最後通牒的方式逼迫就範。

這個歷史弧線是發人深省的。AI 安全運動的核心主張是:AI 系統在被部署到高風險場景之前,應當經過充分的評估和限制。但「高風險場景」的定義權始終是模糊的。當軍事機構認定自主武器是合理的高效率工具,當國防部長以閣員身份下達最後期限,這場關於誰有權定義「安全邊界」的爭論,就從技術倫理領域滑入了赤裸裸的政治權力競技場。

Anthropic 的處境,讓人想起核能工業早期的一個教訓:技術被開發的速度,往往快過人類建立有效監管框架的速度。核武器的問世距愛因斯坦的理論不過數十年,而有效的核不擴散機制直到冷戰高峰後才逐漸形成。AI 的發展軌跡正在壓縮這個過程——而這場最後通牒,正是這種壓縮帶來的第一批正面碰撞之一。

三種可能的結局與影響評估

  • Anthropic 完全妥協:短期商業壓力解除,但公司核心品牌承諾受損,可能引發員工流失(尤其是安全研究人員),並向其他 AI 公司傳遞「政府壓力有效」的訊號。
  • Anthropic 部分妥協:透過談判划定新的邊界,開放部分軍事用途但保留最敏感的限制。這是最可能也最符合雙方利益的結果,但細節的魔鬼在於哪些應用被納入、哪些被排除。
  • Anthropic 強硬拒絕:可能面臨政府合約的全面流失,投資者關係緊張,並觸發一場涉及 AI 技術使用強制性的司法對決。長遠而言,若勝訴,將為 AI 公司的「使用政策自主權」確立重要判例。

結語:時鐘走過 5 點,但問題還在

下午5時01分的時鐘已經走過。無論 Anthropic 作出何種選擇,這場對決本身已經改變了 AI 行業的某些基本預設。它証明,「安全優先」不再是一個可以在商業現實和政治壓力面前自我維持的抽象承諾——它是一個必須被主動捍衛、且捍衛是有代價的立場。

它也証明,AI 公司在積累到足夠規模後,將不可避免地成為地緣政治博弈的棋子。Anthropic 以 3,800 億美元估值融入了美國資本和戰略生態,這個選擇在帶來資金的同時,也帶來了對美國國家安全議程的隱性責任。這不是 Dario Amodei 可以在公司創立初期完全預見和規避的——但他現在必須面對。

對於關注 AI 治理的觀察者,無論身處香港、北京、倫敦還是矽谷,這場對決都值得高度重視。它不是一個孤立事件,而是 AI 時代「技術主權」爭奪戰的序幕。在這場戰爭中,最終決定 AI 能力邊界的,可能不是工程師的安全評估,也不是倫理學家的道德框架,而是握有實際權力的政治意志。

這,才是這份最後通牒真正令人警醒的地方。