安全事件

Anthropic回應美國國防部供應鏈風險指定爭議

人工智能公司Anthropic因被美國國防部指定為供應鏈風險,宣布將依法挑戰該決定,並強調將持續支持國防部相關應用的平穩過渡。

2026年3月,人工智能公司Anthropic收到美國國防部(Department of War)通知,該公司被指定為國家安全的供應鏈風險。Anthropic隨即發表聲明,質疑該指定的法律依據,並宣布將透過司法途徑挑戰該決定。

Anthropic強調,該供應鏈風險指定的適用範圍有限,僅針對與國防部直接合約中使用Claude AI的部分,並不影響其他客戶或業務。公司過去與國防部在情報分析、模擬、作戰規劃及網路作戰等領域有良好合作,並願意在過渡期間繼續以名義成本提供技術支持。

此外,Anthropic重申其立場,反對AI在完全自主武器及大規模國內監控上的應用,並認為軍事作戰決策應由軍方負責,而非私營AI公司。該事件引發業界對AI供應鏈安全與國防合作的廣泛關注。

Anthropic同時對公司內部一篇被外洩的情緒化文章致歉,強調該文不代表公司官方立場,並呼籲各方共同維護國家安全與技術創新平衡。

此事件凸顯AI企業在國家安全框架下的挑戰與責任,也反映出政府與私營部門在AI應用安全監管上的複雜互動。

返回首頁