2026年3月,人工智能公司Anthropic收到美國國防部(Department of War)通知,該公司被指定為國家安全的供應鏈風險。Anthropic隨即發表聲明,質疑該指定的法律依據,並宣布將透過司法途徑挑戰該決定。
Anthropic強調,該供應鏈風險指定的適用範圍有限,僅針對與國防部直接合約中使用Claude AI的部分,並不影響其他客戶或業務。公司過去與國防部在情報分析、模擬、作戰規劃及網路作戰等領域有良好合作,並願意在過渡期間繼續以名義成本提供技術支持。
此外,Anthropic重申其立場,反對AI在完全自主武器及大規模國內監控上的應用,並認為軍事作戰決策應由軍方負責,而非私營AI公司。該事件引發業界對AI供應鏈安全與國防合作的廣泛關注。
Anthropic同時對公司內部一篇被外洩的情緒化文章致歉,強調該文不代表公司官方立場,並呼籲各方共同維護國家安全與技術創新平衡。
此事件凸顯AI企業在國家安全框架下的挑戰與責任,也反映出政府與私營部門在AI應用安全監管上的複雜互動。