← 返回新聞列表

Trump 下令禁止聯邦機構使用 Anthropic:「供應鏈風險」認定震動矽谷,OpenAI 接手五角大廈合約

2 月 27 日下午 5:01,截止時間一到,Trump 政府對 Anthropic 發動了美國 AI 史上最嚴厲的行政打擊。在 Anthropic 拒絕撤除防止大規模監控與全自主武器的安全限制後,總統下令所有聯邦機構「立即停止」使用 Anthropic 的 AI,國防部長更將其列為「國家安全供應鏈風險」。數小時後,OpenAI 宣布新的五角大廈合約。這場 AI 安全原則與國家權力的正面碰撞,正在重新定義整個科技產業的運作規則。

5:01 PM:截止時間過後的雷霆一擊

事態的時間線清晰而殘酷。美東時間 2 月 27 日下午 5:01,Trump 政府給予 Anthropic 的最後期限正式到期。這個期限要求 Anthropic 撤除其 AI 模型 Claude 中兩項核心安全限制——禁止用於對美國人的大規模監控,以及禁止用於全自主致命武器系統。Anthropic 沒有讓步。

回應幾乎是即時的。Trump 當晚在 Truth Social 上發文,稱 Anthropic 是「覺醒的」(woke)和「左翼的」(leftwing),並下令所有聯邦機構「立即停止」使用 Anthropic 的任何 AI 產品與服務。隨後,國防部長 Pete Hegseth 發布了更具殺傷力的行政動作:正式將 Anthropic 認定為「國家安全供應鏈風險」(Supply-Chain Risk to National Security)。

這一認定的份量不可低估。在美國國防採購體系中,「供應鏈風險」標籤過去幾乎專門保留給對手國家的企業——最廣為人知的案例是中國的華為。將這個標籤貼在一家美國本土 AI 公司身上,在聯邦採購史上前所未有。Washington Post 以「五角大廈宣布 Anthropic 為國家安全威脅」為標題報導了這一事件,充分反映了其衝擊的程度。

事件時間線

  • 2 月 27 日 下午 5:01 ET:Trump 政府給予 Anthropic 的最後期限到期,要求撤除大規模監控和自主武器的使用限制
  • 2 月 27 日 當晚:Trump 在 Truth Social 發文攻擊 Anthropic 為「woke」和「leftwing」,下令聯邦機構「立即停止」使用
  • 2 月 27 日:國防部長 Pete Hegseth 正式將 Anthropic 認定為「國家安全供應鏈風險」
  • 隨後數日:OpenAI 宣布新的五角大廈合約;Anthropic 宣布將在法庭挑戰該認定
  • 6 個月過渡期:目前正在使用 Claude 的聯邦機構(包括五角大廈機密環境)獲給予 6 個月的逐步淘汰期

Anthropic 的不可讓步:安全紅線的代價

Anthropic CEO Dario Amodei 在公開聲明中的措辭,展現了一種罕見的企業強硬。

「這些威脅不會改變我們的立場:我們無法在良心上同意他們的要求。」——Dario Amodei,Anthropic CEO

Amodei 將政府的行動稱為「報復性和懲罰性的」(retaliatory and punitive),並宣布 Anthropic 將在法庭挑戰「供應鏈風險」的認定。這一決定意味着 Anthropic 已做好了與聯邦政府進行長期法律戰的準備,其代價可能遠超任何商業計算。

Anthropic 所堅守的兩條紅線——禁止大規模監控和禁止全自主武器——並非抽象的道德姿態。大規模監控直接觸及美國憲法第四修正案對公民免受不合理搜查的保護;全自主武器則是國際人道法中最受爭議的議題之一。Anthropic 的立場是,一旦跨越這些紅線,其造成的系統性損害將遠大於任何商業或政治考量。

需要強調的是,Anthropic 並非完全拒絕國防合作。Claude 此前已在五角大廈的機密環境中運行,執行情報分析等任務。Anthropic 接受的是有條件的國防合作,但它為這種合作設定了明確的倫理邊界。而正是這些邊界,成為了 Trump 政府不能容忍的存在。

退役將領的證詞:Claude 已深入政府核心

退役空軍上將 Jack Shanahan——曾負責五角大廈 AI 戰略的資深軍事領導人——的評論,為這場對峙增添了一個關鍵維度。Shanahan 指出,Claude 已經在聯邦政府各機構中被廣泛使用,包括機密環境。他明確表示,Anthropic 設定的安全紅線是「合理的」(reasonable)。

Shanahan 的立場打破了一個被刻意構建的敘事框架——即 Anthropic 的安全限制是「不切實際的理想主義」或「矽谷精英的傲慢」。一位深度參與過軍事 AI 決策的退役將領公開認可這些限制的合理性,意味着 Anthropic 的立場在國防專業人士中並非沒有支持者。恰恰相反,那些最了解 AI 軍事應用風險的人,可能正是最理解為何需要設定紅線的人。

但 Shanahan 的證詞也揭示了禁令的實際衝擊。如果 Claude 已經深入政府機密系統的日常運作,那麼 6 個月的逐步淘汰期將意味着一場大規模的技術遷移——不僅涉及軟體替換,還涉及工作流程重建、人員再培訓、以及安全認證的重新評估。這場遷移的成本和風險本身就是一個嚴峻的國家安全問題。

OpenAI 的雙面操作:相同紅線,不同結局

這場事件中最令人矚目的諷刺,來自 OpenAI 的角色。就在 Anthropic 因堅守安全紅線而遭受行政打擊的同時,OpenAI CEO Sam Altman 發出了一份內部備忘錄,其內容幾乎與 Anthropic 的立場一字不差。

「我們長期以來一直認為,AI 不應被用於大規模監控或自主致命武器。」——Sam Altman,OpenAI CEO 內部備忘錄

這份備忘錄確認了 OpenAI 在原則上持有與 Anthropic 完全相同的安全紅線。然而,就在這份備忘錄之後,NPR 報導了一則標題為「Trump 禁止 Anthropic 後,OpenAI 宣布五角大廈合約」的新聞。OpenAI 在確認自己的紅線與 Anthropic 相同的同時,接手了 Anthropic 因堅守同樣紅線而失去的國防業務。

這個時間節點的巧合——或許並非巧合——引發了整個科技產業的深層不安。OpenAI 的備忘錄究竟是一種真誠的原則聲明,還是一種精心計算的政治操作?如果 OpenAI 確實持有相同的紅線,那麼它與五角大廈的新合約是否包含了 Anthropic 被要求放棄的那些讓步?如果不包含,那麼 Trump 政府打擊 Anthropic 的真正動機就值得深究——這是否更多關乎政治報復而非實際的安全考量?

矽谷的良心拷問

OpenAI 的雙面操作引爆了科技產業內部的道德危機。數百名來自 Google、OpenAI、Microsoft 和 Amazon 的員工簽署了聯合請願書,要求各自的公司效仿 Anthropic 的立場。這場員工運動的規模和跨公司性質在科技產業的歷史中極為罕見——它表明,在公司管理層之外,有大量技術從業者認為 Anthropic 設定的紅線不僅合理,而且是整個產業應當共同遵守的底線。

這場員工聯署的意義超越了任何單一公司的政策爭論。它揭示的是,在 AI 快速滲透國防和情報系統的過程中,構建這些系統的工程師和研究者群體,與決定如何使用這些系統的政治和商業力量之間,正在形成一道越來越深的裂痕。

380 億估值的十字路口:Anthropic 的商業賭注

這場對峙發生在 Anthropic 最為輝煌的商業時刻。公司剛剛完成了 300 億美元的融資,估值達到 3,800 億美元,成為全球估值最高的 AI 初創公司之一。然而,聯邦禁令和「供應鏈風險」認定可能在一夜之間改變這一切。

直接的商業影響是顯而易見的:Anthropic 面臨失去所有聯邦政府業務的風險。但更深層的威脅來自「供應鏈風險」標籤的連鎖效應。這個標籤不僅意味着聯邦機構不能直接採購 Anthropic 的產品,還會壓迫所有聯邦承包商從自身供應鏈中移除 Anthropic 的技術。Palantir、Booz Allen Hamilton、Leidos 等國防承包商如果繼續在其系統中整合 Claude,將面臨失去自身聯邦合約的風險。

對於私營部門客戶而言,「供應鏈風險」的標籤也將產生寒蟬效應。金融機構、醫療系統、關鍵基礎設施運營商——這些高度監管的行業在選擇 AI 供應商時,一家被自己國家政府認定為「國家安全風險」的公司,無論技術多優秀,都將成為合規部門的噩夢。3,800 億美元的估值是建立在 Anthropic 能夠服務廣泛市場的假設之上的,而這個假設正遭受前所未有的衝擊。

「供應鏈風險」認定的連鎖影響

  • 聯邦機構:所有政府部門被要求立即停止新的 Anthropic 採購,現有部署進入 6 個月逐步淘汰期
  • 國防承包商:整合 Claude 的承包商面臨壓力,須從供應鏈中移除 Anthropic 技術以保留自身聯邦合約
  • 監管行業:金融、醫療、關鍵基礎設施等高度監管行業的客戶可能因合規風險而重新評估 Anthropic 合作
  • 國際市場:盟國政府和企業可能重新考慮採用被美國政府認定為「風險」的 AI 供應商
  • 投資者信心:300 億美元融資和 3,800 億估值的商業基礎面臨根本性質疑

法律戰場:Anthropic 的反擊路徑

Anthropic 宣布將在法庭挑戰「供應鏈風險」認定,這意味着一場前所未有的行政法訴訟即將展開。這場訴訟的核心問題極具憲法意義:聯邦政府能否因為一家企業拒絕修改其產品的安全功能,而將其認定為「國家安全風險」?

Anthropic 可能的法律策略包括多個層面。首先,挑戰認定的程序合法性——「供應鏈風險」認定通常需要經過特定的行政程序和證據審查,而 Trump 政府在截止時間到期後近乎即時的反應,暗示該認定可能缺乏充分的程序基礎。其次,挑戰認定的實質合理性——Anthropic 並非外國企業,不存在技術外流至對手國家的風險,其安全限制恰恰旨在防止技術濫用。將「拒絕移除安全功能」等同於「國家安全風險」,在法律邏輯上存在明顯的漏洞。

然而,法律挑戰的前景並不明朗。美國法院傳統上對國家安全領域的行政裁量權採取高度尊重的態度,法官往往不願意推翻行政部門在國防事務上的判斷。更何況,在當前的政治氛圍中,任何被貼上「woke」標籤的機構在法庭上都可能面臨額外的壓力。

產業分水嶺:AI 安全的生死存亡

這場對峙的影響遠遠超出 Anthropic 一家公司的命運。它正在測試一個根本性的問題:在當代政治環境中,AI 安全原則是否能夠經受住國家權力的壓力而存活?

Trump 政府的行動傳遞了一個極其清晰的信號:設定安全紅線是有代價的,而且代價可以是毀滅性的。對於正在考慮自身 AI 安全政策的科技公司而言,Anthropic 的遭遇是一個活生生的警示案例。如果堅守原則的結果是被你自己的政府認定為「國家安全威脅」,那麼有多少公司有勇氣和財務實力做出同樣的選擇?

數百名科技員工的聯署請願表明,技術社群中存在大量支持安全紅線的聲音。但歷史反覆證明,員工運動在面對來自政府和管理層的雙重壓力時,往往難以轉化為實際的政策改變。2018 年 Google 員工成功反對 Project Maven 軍事 AI 合約的案例,在當前的政治環境中幾乎不可能重演。

AI 安全史上的分水嶺時刻

回顧 AI 發展的歷史,這場對峙可能被認定為 AI 安全原則與國家安全需求之間最重大的碰撞事件。此前的爭論——從 Google 的 Project Maven 到 OpenAI 修改軍事用途政策——都發生在企業自主決策的範疇內。而 Trump 政府的行動首次將國家行政力量直接投射到企業的 AI 安全政策上,試圖以強制手段消除企業設定的倫理邊界。

如果 Anthropic 最終在法庭或商業壓力下被迫讓步,其結果將不僅是一家公司政策的改變,而是整個 AI 安全框架的系統性瓦解。它將確立一個先例:政府可以通過行政手段迫使 AI 公司移除安全限制。在這個先例之下,任何 AI 公司設定的安全紅線都將變成沒有強制力的自願承諾,隨時可能在政治壓力下被撤回。

對香港及亞太地區的啟示

這場發生在華盛頓的對峙,對香港和整個亞太地區的科技生態有着直接的衝擊。

首先是供應商風險的重新評估。任何使用 Anthropic Claude 的香港企業和機構,現在都必須考慮一個此前不存在的風險維度:其 AI 供應商被自己的母國政府認定為安全風險。這種風險不僅影響直接的產品供應穩定性,還可能涉及與美國聯邦承包商合作時的合規要求。

其次是 AI 治理框架的借鑑意義。Anthropic 的案例表明,純粹依賴企業自律的 AI 安全框架在面對國家權力時是脆弱的。香港在制定自身 AI 政策時,需要思考如何在法律層面為 AI 安全的核心原則提供保護——特別是在大規模監控和自主系統等敏感領域。具有法律效力的規範不僅保護公眾利益,也為企業提供了抵禦政治壓力的制度屏障。

最後,這場事件加速了 AI 技術供應鏈的地緣政治碎片化。當美國政府可以出於政治原因而非技術原因將一家 AI 公司列為「供應鏈風險」,所有依賴美國 AI 技術的國家和地區都需要重新思考其技術自主性戰略。對香港而言,這進一步凸顯了培育本地 AI 研發能力和多元化技術供應鏈的緊迫性。

前路:一場沒有贏家的對峙

在這場對峙中,很難找到贏家。Anthropic 面臨可能失去所有政府業務的生存壓力。聯邦政府將經歷一場大規模且代價高昂的技術遷移。數以千計的政府僱員將不得不從他們已經熟練使用的工具中轉換出來。而整個 AI 產業,則在安全原則和商業現實之間被進一步撕裂。

Dario Amodei 說他無法在良心上同意政府的要求。Sam Altman 說 AI 不應被用於大規模監控或自主致命武器。但在這兩句話之間,一場關於 AI 安全紅線是否有意義的根本性測試正在展開。它的結果,將決定未來十年甚至更長時間內,AI 技術與國家權力之間的關係將遵循什麼樣的規則。

在國際 AI 治理規範尚不存在的今天,Anthropic 的法庭挑戰可能成為建立此類規範的第一塊基石——或者,如果失敗,成為證明企業 AI 安全承諾在國家權力面前毫無意義的決定性證據。無論結果如何,2026 年 2 月 27 日下午 5:01 之後的世界,已經與之前截然不同。

本文要點總結

  • Trump 於 2 月 27 日下令所有聯邦機構「立即停止」使用 Anthropic,國防部長 Pete Hegseth 將 Anthropic 認定為「國家安全供應鏈風險」——這一標籤過去幾乎只用於華為等對手國家企業。
  • 事件起因是 Anthropic 拒絕在截止時間前撤除兩項核心安全限制:禁止 Claude 用於對美國人的大規模監控,以及禁止用於全自主致命武器。CEO Dario Amodei 稱政府行動「報復性和懲罰性的」,並宣布將在法庭挑戰該認定。
  • OpenAI CEO Sam Altman 在內部備忘錄中確認持有與 Anthropic 完全相同的安全紅線,但 OpenAI 隨即宣布了新的五角大廈合約——這一矛盾引發了整個產業的道德質疑。
  • 數百名來自 Google、OpenAI、Microsoft 和 Amazon 的員工簽署聯合請願書,要求各自的公司效仿 Anthropic 的安全立場。退役空軍上將 Jack Shanahan 認為 Anthropic 的紅線是「合理的」。
  • Anthropic 最近以 3,800 億美元估值融資 300 億美元,但現在面臨失去所有政府業務的風險。「供應鏈風險」標籤的連鎖效應可能波及國防承包商、監管行業客戶和國際市場。這是 AI 歷史上安全原則與國家安全需求之間最重大的碰撞。