← 返回新聞列表

Anthropic 與五角大樓談判陷僵局:AI 監控與武器使用的紅線之爭

Bloomberg 於 2 月 17 日獨家報導,Anthropic 與美國國防部就 AI 模型在監控及武器系統中的應用產生嚴重分歧。這場價值兩億美元的合約僵局,不僅揭示了 AI 安全理念與軍事現實之間的根本矛盾,更預示著整個科技產業在國防合作上的路線分裂正在加速深化。

委內瑞拉行動:引爆爭議的導火線

事件的起源可追溯至數週前的一則震撼消息:美國軍方在針對委內瑞拉總統馬杜羅的突襲行動中,透過與 Palantir 的合作夥伴關係,使用了 Anthropic 旗下的 Claude AI 模型。這一消息曝光後,立即在科技界和國防圈引發軒然大波。Anthropic 一直以「負責任的 AI 開發者」自居,其使用政策明確禁止將 AI 技術用於「促進暴力、開發武器或大規模監控」。然而,Claude 模型卻在實際軍事行動中扮演了角色,這無疑讓 Anthropic 的安全承諾遭受了前所未有的信任危機。

問題的複雜性在於,Anthropic 並非直接向國防部提供服務,而是透過 Palantir 這個中間層。Palantir 作為國防承包商,將 Claude 整合到其情報分析平台中,再由軍方在實際行動中使用。這種多層合作架構創造了一個灰色地帶——Anthropic 是否需要為其下游合作夥伴的所有使用場景負責?這個問題在法律和倫理層面都沒有明確答案。

五角大樓的強硬立場

國防部長 Pete Hegseth 在事件曝光後的回應毫不含糊。他公開表示:「我們不會採用那些不允許你打仗的 AI 模型。」這番言論不僅是對 Anthropic 的直接警告,更是向整個科技產業發出了明確信號——在特朗普政府的國防戰略中,AI 技術的軍事應用不容設限。

「我們不會採用那些不允許你打仗的 AI 模型。國防部需要的是能夠在戰場上發揮作用的 AI 夥伴,而不是在關鍵時刻畏首畏尾的技術供應商。」——美國國防部長 Pete Hegseth

Hegseth 的立場反映了特朗普政府「以實力維護和平」(peace through strength)的核心國防理念。在這一框架下,AI 被視為下一代軍事優勢的關鍵技術,任何對其軍事應用的限制都被視為對國家安全的潛在威脅。五角大樓正在重新評估其所有 AI 合作夥伴關係,據悉正在考慮取消 Anthropic 那份價值 2 億美元的國防合約。

合約取消的連鎖效應

如果 Anthropic 的國防合約被取消,影響將遠超財務層面。首先,這將向市場傳遞一個明確信號:堅持 AI 安全紅線的公司將被排除在利潤豐厚的國防市場之外。其次,這可能引發其他政府機構效仿,重新審視與 Anthropic 的合作關係。最後,這也將對 Anthropic 的商業估值和融資能力產生深遠影響——在當前的地緣政治環境下,政府合約的穩定性是投資者評估 AI 公司時的重要考量因素。

科技產業的路線分裂

Anthropic 的困境並非個案,而是整個科技產業在軍事 AI 領域路線分裂的縮影。這場分裂可以追溯到 2018 年 Google 的「Project Maven」事件——當時數千名 Google 員工簽署請願書,反對公司為五角大樓的無人機影像辨識項目提供 AI 技術,最終迫使 Google 退出該計劃。

然而,時移勢易。八年後的今天,科技產業對軍事合作的態度已經發生了根本性的轉變。OpenAI 在 2024 年悄然修改了其使用政策,刪除了原先禁止軍事用途的條款,隨後迅速與國防部簽訂了多項合作協議。Google 也重新擁抱國防合約,其 Google Cloud 部門積極爭取國防和情報機構的業務。xAI 在與 SpaceX 合併後,更是直接進軍自主無人機領域。

主要科技公司的國防 AI 立場對比

  • Anthropic:堅持使用政策禁止暴力、武器開發和大規模監控應用,與五角大樓產生直接衝突
  • OpenAI:2024 年已修改使用政策,刪除軍事禁令,積極發展國防合作
  • Google DeepMind:從 2018 年退出 Project Maven 到如今重新擁抱國防合約,態度 180 度轉變
  • xAI / SpaceX:合併後直接參與五角大樓自主無人機競標,擁抱軍事市場
  • Palantir:自創立以來一直深耕國防和情報領域,估值已突破 2,000 億美元
  • Anduril:專注國防 AI 與自主系統,估值達 280 億美元

擁抱國防的新興力量

在 Anthropic 猶豫不前的同時,一批新興科技公司正在全力擁抱國防市場。Shield AI 最近完成了 10 億美元融資,專注於開發自主國防系統,估值達到 120 億美元。Anduril Industries 則以 280 億美元的估值成為國防科技領域的新星,其自主系統已在多個戰區部署。Palantir 的市值更是突破 2,000 億美元,成為國防科技板塊中最大的上市公司之一。

這些公司的成功故事對 Anthropic 構成了巨大的壓力。它們證明了在國防市場中,願意滿足軍方需求的公司能夠獲得極為豐厚的回報。相比之下,Anthropic 的道德立場雖然在學術界和公民社會中贏得讚譽,但在資本市場和政策圈中卻越來越顯得格格不入。

Anthropic 的兩難困境

深入分析 Anthropic 的處境,我們會發現這家公司正走在一條極為狹窄的鋼絲上。一方面,AI 安全是 Anthropic 的核心品牌定位和創始理念。公司的創辦人 Dario Amodei 和 Daniela Amodei 正是因為在 OpenAI 時期對安全問題的不同看法而另立門戶。如果 Anthropic 在軍事應用問題上妥協,等於自我否定了其存在的根本理由,不僅會失去核心人才和學術合作夥伴的支持,更會摧毀其在 AI 安全領域的話語權。

另一方面,商業現實同樣嚴峻。Anthropic 剛剛以 3,800 億美元的估值完成了 300 億美元的 G 輪融資,年化收入據報已達 40 至 50 億美元。但在 AI 產業的軍備競賽中,研發成本持續飆升,而國防合約是少數能提供穩定、大額收入的渠道之一。失去五角大樓的合約不僅意味著直接的收入損失,更可能影響與其他政府機構的合作前景。

這場爭議的本質並非簡單的商業糾紛,而是一個深層的哲學問題:當一家以「確保 AI 安全」為使命的公司,被要求將其技術用於可能造成人員傷亡的軍事行動時,它的安全承諾究竟意味著什麼?

可能的妥協方案

業界觀察人士指出,Anthropic 可能會尋求一種中間路線。例如,允許 Claude 在後勤物流、情報分析和網絡安全等非致命性領域發揮作用,同時維持在自主武器和大規模監控方面的禁令。這種「分級許可」的模式可以在一定程度上同時滿足國防需求和安全原則。

然而,五角大樓似乎並不滿足於這種有限的合作。Hegseth 的公開言論暗示,國防部希望獲得的是不受限制的 AI 能力——能夠在任何作戰場景中部署,而不需要事先獲得 AI 供應商的許可或接受其使用政策的約束。

更廣泛的地緣政治背景

這場爭議不能脫離更廣泛的地緣政治背景來理解。在中美科技競爭日益激烈的當下,美國國防部將 AI 視為維持軍事優勢的關鍵技術。中國的軍事 AI 發展不受類似的倫理約束,這使得美國軍方更加急於獲取不受限制的 AI 能力。

同時,俄烏衝突和中東局勢也在持續推動軍事 AI 的需求。自主無人機、智能監控系統和 AI 輔助決策工具在實際戰場上的表現,證明了 AI 技術在現代戰爭中的巨大價值。在這一背景下,堅持限制 AI 軍事應用的公司不僅面臨商業壓力,更面臨來自國家安全角度的政治壓力。

國際 AI 軍事治理的空白

Anthropic 與五角大樓之間的矛盾,也暴露了國際社會在 AI 軍事治理方面的嚴重空白。目前,既沒有類似《日內瓦公約》的國際框架來規範 AI 在軍事行動中的使用,也沒有行業自律組織能夠在商業利益和倫理原則之間建立有效的平衡機制。

聯合國曾多次討論「致命自主武器系統」(Lethal Autonomous Weapons Systems, LAWS)的規管問題,但在主要軍事大國的反對下,相關談判進展緩慢。在缺乏國際規範的情況下,AI 軍事應用的邊界實際上由各國政府和科技公司在雙邊談判中自行劃定,這是一個極不穩定的局面。

對香港的啟示

Anthropic 與五角大樓之間的爭議,對香港在多個層面都具有深刻的啟示意義。

科技倫理標準的建立

首先,在科技倫理標準方面,香港作為國際金融和科技中心,需要建立自己的 AI 倫理框架。香港的 AI 公司在尋求國際合作時,必然會面臨類似的使用限制問題。特別是在「一國兩制」的框架下,香港的 AI 企業如何在不同的法律和倫理體系之間導航,將是一個持續的挑戰。香港政府應考慮制定明確的 AI 倫理指南,既符合國際標準,又適應本地的特殊環境。

國防與安全政策的 AI 元素

其次,隨著 AI 技術在全球安全領域的應用日益廣泛,香港需要思考如何在國家安全法律框架下,合理引入和管理 AI 監控和安全技術。這不僅涉及技術選擇,更涉及公民權利保護和國際觀感的平衡。Anthropic 事件提醒我們,AI 技術的軍事和安全應用總是伴隨著巨大的倫理爭議,必須在透明和問責的框架下謹慎推進。

香港 AI 企業的國際化策略

最後,對於正在國際化的香港 AI 企業而言,Anthropic 的經歷是一堂寶貴的課。在進入不同市場時,企業需要提前釐清自身的使用政策紅線,避免陷入類似的兩難困境。特別是在國防和安全領域,合約條款和使用限制的模糊地帶可能帶來巨大的法律和聲譽風險。香港的科技企業應該從 Anthropic 的案例中汲取教訓,在拓展業務的同時建立清晰的倫理邊界和風險管理機制。

本文要點總結

  • Anthropic 因 Claude 模型在委內瑞拉軍事行動中的使用而與五角大樓產生嚴重分歧,價值 2 億美元的國防合約面臨取消風險
  • 科技產業在軍事 AI 領域出現明顯路線分裂:OpenAI、Google、xAI 選擇擁抱國防市場,Anthropic 堅持安全紅線面臨孤立
  • Shield AI、Anduril、Palantir 等國防科技公司的快速崛起,證明國防 AI 市場的商業價值巨大,對堅持倫理底線的公司形成強大壓力
  • 香港需要從此事件中汲取教訓,在建立 AI 倫理框架、管理安全技術應用和指導企業國際化策略方面提前佈局,避免在科技倫理與商業利益之間陷入被動