← 返回新聞列表

五角大樓在委內瑞拉行動中使用 Claude AI:商用 AI 首次進入機密軍事戰場

今年一月,美國特種部隊在突襲委內瑞拉首都加拉加斯、逮捕獨裁者馬杜羅的行動中,首次在實戰環境中部署了 Anthropic 的 Claude AI 模型處理機密情報。這標誌着商用 AI 正式踏入軍事戰場,也引發了關於 AI 倫理、雙重用途技術及商業公司責任的根本性辯論。

事件始末:從矽谷到加拉加斯戰場

2026 年 1 月,美國特種作戰部隊(Special Operations Forces)在五角大樓的授權下,對委內瑞拉首都加拉加斯發動了一次大規模突襲行動,目標是逮捕長期被美國視為獨裁者的委內瑞拉總統尼古拉斯·馬杜羅(Nicolás Maduro)。行動最終成功完成,美方零傷亡,但造成數十名委內瑞拉及古巴安全部隊人員死亡。

然而,這次行動最引人注目的,並非其軍事層面的成敗,而是一個前所未有的技術細節:Anthropic 公司開發的商用 AI 模型 Claude 被首次部署於五角大樓的機密網絡中,在行動進行期間即時處理情報數據。這是商業 AI 模型首次獲准進入美國國防部的機密系統,標誌着 AI 技術從實驗室走向真實戰場的歷史性轉折。

Anthropic-Palantir 合作架構

Claude 進入五角大樓的機密網絡,是透過 Anthropic 與國防承包商 Palantir Technologies 的合作實現的。Palantir 長期為美國情報機構和國防部提供數據分析平台,其 Gotham 和 Apollo 平台已廣泛應用於軍事和情報領域。透過這項合作,Claude 被整合進 Palantir 的安全基礎設施中,使其能在符合國防部安全標準的環境下運行。

據了解,Claude 在此次行動中的角色主要集中在情報分析層面:處理來自多個來源的即時情報數據、分析衛星影像與通訊截獲資料、評估目標區域的安全態勢,以及為指揮官提供情境感知支援。值得注意的是,Claude 並未直接參與任何致命決策或武器系統的操控。

沉默的 Anthropic:企業責任的灰色地帶

面對外界的質詢,Anthropic 的發言人給出了一句耐人尋味的回應:「我們無法就 Claude 是否被用於任何特定行動發表評論。」("We cannot comment on whether Claude was used for any specific operation.")這種「既不確認也不否認」的措辭,本身就值得深思。

「我們無法就 Claude 是否被用於任何特定行動發表評論。」—— Anthropic 發言人

Anthropic 一直以「負責任 AI」的倡導者自居。該公司的使用條款明確禁止將 Claude 用於「促進暴力」、「開發武器」或「監視活動」。然而,在情報分析與軍事行動之間,這些條款的邊界變得模糊不清。處理用於軍事行動的情報,算不算「促進暴力」?為指揮官提供情境分析以支持涉及致命武力的決策,是否構成「開發武器」的延伸?

這種模糊性正是問題的核心。Anthropic 的沉默,反映出一個更深層的困境:當一家以安全和倫理著稱的公司,其產品被用於真實的軍事行動時,它究竟應該扮演什麼角色?

五角大樓的立場:AI 必須為戰爭服務

與 Anthropic 的謹慎形成鮮明對比的,是五角大樓的直白態度。國防部長皮特·海格塞斯(Pete Hegseth)明確表示,五角大樓「不會使用不允許你打仗的 AI 模型」("won't employ AI models that won't allow you to fight wars")。

「五角大樓不會使用不允許你打仗的 AI 模型。」—— 美國國防部長皮特·海格塞斯

這番話的背景是,特朗普政府正在考慮取消與 Anthropic 價值 2 億美元的合約。原因並非 Claude 在委內瑞拉行動中表現不佳,恰恰相反——五角大樓擔心的是 Anthropic 對 AI 用途施加的種種限制,可能會妨礙未來的軍事應用。

海格塞斯的立場代表了軍方的一種根本性訴求:AI 技術已經足夠強大,足以在戰場上發揮決定性作用,而任何阻止軍方充分利用這些技術的限制——無論出於倫理還是商業考量——都是不可接受的。

更廣泛的軍事 AI 生態

Anthropic 並非唯一與五角大樓合作的 AI 公司。OpenAI、Google 和馬斯克的 xAI 都與國防部有着不同形式的合作協議。事實上,整個矽谷的主要 AI 公司都在面臨同樣的抉擇:是堅持自己的倫理原則,還是迎合軍方的需求?

OpenAI 在 2024 年修改了其使用政策,刪除了原先禁止軍事和戰爭用途的條款。Google 在經歷了 2018 年 Project Maven 的員工抗議後,也悄然恢復了與國防部的 AI 合作。xAI 則從一開始就對軍事應用持開放態度。在這個背景下,Anthropic 的「安全優先」立場顯得越來越孤立。

主要 AI 公司的軍事合作立場

  • Anthropic:使用條款禁止暴力和武器相關用途,但已透過 Palantir 進入機密網絡。2 億美元合約可能被取消。
  • OpenAI:2024 年修改政策,刪除軍事禁令。與國防部多個項目合作。
  • Google DeepMind:2018 年 Project Maven 爭議後低調恢復合作。Gemini 模型用於情報分析。
  • xAI:從創立起即對國防應用持開放態度。Grok 模型已部署於多個軍事項目。

倫理困境:雙重用途技術的根本矛盾

這一事件暴露了 AI 作為「雙重用途技術」(dual-use technology)的根本矛盾。與核技術、生物技術類似,AI 本質上是一種通用技術,其應用的善惡取決於使用者的意圖和使用方式。一個能夠分析大量文本並提取關鍵資訊的模型,既可以用來幫助學生學習,也可以用來篩選情報為軍事行動提供支援。

「非致命」使用的迷思

五角大樓和部分科技分析師試圖將 Claude 的角色定位為「非致命」的情報分析工具,以此來緩解倫理爭議。然而,這種區分在實際戰場上幾乎毫無意義。當 Claude 處理的情報直接用於一場造成數十人死亡的軍事行動時,它是否真的可以被視為「非致命」的?

這就如同說一個軍事地圖繪製師沒有參與戰鬥——技術上或許正確,但在道德上顯得空洞。情報分析是現代軍事行動中不可分割的一部分,將其從行動的後果中剝離出來,是一種刻意的語義遊戲。

商業利益與道德底線

更深層的問題在於,AI 公司是否有能力——或者說有意願——真正控制其產品的使用方式。當 Anthropic 將 Claude 授權給 Palantir,再由 Palantir 部署到五角大樓的機密網絡中時,Anthropic 對 Claude 的實際用途究竟有多少控制權?這種多層轉授權的模式,是否本身就為規避使用限制提供了便利?

值得注意的是,Anthropic 正處於大規模融資和尋求 IPO 的關鍵時期。2025 年底,該公司完成了 300 億美元估值的 G 輪融資。在這種背景下,一份價值 2 億美元的五角大樓合約,對公司的財務和聲譽都有重大影響。

更廣泛的地緣政治脈絡

委內瑞拉行動中使用 AI 的事件,必須放在更廣泛的地緣政治脈絡中理解。美國正面臨來自中國在 AI 軍事應用方面的激烈競爭。中國人民解放軍已將 AI 深度整合到其指揮控制系統中,並在無人機蜂群、自主武器系統和網絡作戰等領域進行大量投資。

在這種競爭壓力下,五角大樓對 AI 技術的需求變得更加迫切。海格塞斯取消 Anthropic 合約的威脅,本質上是在向整個 AI 產業傳遞一個明確信號:如果你不為我們提供不受限制的 AI 能力,我們就會找願意這樣做的公司。

這種壓力正在重塑矽谷的文化和價值觀。曾經在 Google 員工抗議 Project Maven 時佔據上風的「不作惡」(Don't be evil)理念,正在國家安全論述和商業利益的雙重壓力下逐漸消退。

對香港的啟示

這一事件對香港有着多層面的重要啟示。

國防科技產業的機遇與風險

香港雖然不具備獨立的國防工業體系,但作為中國的特別行政區,其科技生態系統與國家安全議題的交集日益增多。大灣區戰略將深圳和香港的科技能力視為一體,而中國在 AI 軍事應用方面的雄心,意味着在港的 AI 研究和企業可能面臨更複雜的合規和倫理環境。

對於在港運營的國際科技公司而言,委內瑞拉事件提供了一個重要的參照案例。它表明,即使是最注重安全和倫理的 AI 公司,也難以完全控制其技術在軍事領域的應用。這對那些同時服務民用和政府客戶的公司而言,是一個嚴峻的警示。

AI 治理與監管的緊迫性

香港正在發展自己的 AI 監管框架。委內瑞拉事件凸顯了幾個關鍵問題:雙重用途 AI 技術的出口管制、AI 在安全領域應用的透明度要求、以及企業使用條款與政府需求之間的法律衝突。這些問題在香港的獨特政治和法律環境下更加複雜。

作為國際金融中心和科技樞紐,香港需要在促進 AI 創新與防範技術濫用之間找到平衡。委內瑞拉事件表明,單靠企業自律是不夠的——需要明確的法律框架和獨立的監管機制。

人才與投資的考量

香港的 AI 人才和投資決策也將受到這類事件的影響。部分研究人員和工程師可能對參與可能涉及軍事應用的 AI 項目持保留態度,而國際投資者在評估香港 AI 企業時,也會更加關注其技術的潛在軍事用途。

前路展望:不可逆的趨勢

無論 Anthropic 的合約最終是否被取消,委內瑞拉事件已經揭示了一個不可逆轉的趨勢:商用 AI 在軍事領域的應用將持續擴大。問題不是「是否」,而是「如何」和「在什麼條件下」。

未來的關鍵議題包括:AI 公司是否有義務了解和公開其技術的軍事應用?政府是否應該建立專門的審查機制,評估商用 AI 在軍事行動中的使用?國際社會是否需要類似《日內瓦公約》的新框架,來規範 AI 在武裝衝突中的角色?

這些問題沒有簡單的答案,但它們的緊迫性已經不容忽視。加拉加斯的槍聲或許已經停歇,但關於 AI 與戰爭的辯論才剛剛開始。

本文要點總結

  • Anthropic 的 Claude AI 透過與 Palantir 的合作,首次被部署於五角大樓機密網絡中,在委內瑞拉突襲行動期間即時處理情報數據。
  • Anthropic 的使用條款禁止暴力和武器相關用途,但其「既不確認也不否認」的回應揭示了企業倫理承諾與現實之間的巨大落差。
  • 特朗普政府正考慮取消價值 2 億美元的 Anthropic 合約,國防部長海格塞斯明確表示不會使用「不允許打仗」的 AI 模型。
  • OpenAI、Google、xAI 等主要 AI 公司均已與五角大樓建立合作,矽谷的「不作惡」文化正在國安論述下退潮。
  • 對香港而言,此事件凸顯了 AI 雙重用途技術監管、大灣區科技安全生態、以及國際 AI 治理框架建設的迫切性。