美國 AI 監管的憲法危機:78 項法案、27 個州與一道行政命令的正面對撞
距離商務部「負擔性」州法評估報告發布僅剩 18 天,美國 AI 監管正走向二百多年來最獨特的聯邦制攤牌時刻
距離商務部「負擔性」州法評估報告發布僅剩 18 天,美國 AI 監管正走向二百多年來最獨特的聯邦制攤牌時刻
一場關乎美國聯邦制根基的法律風暴正在成形。截至 2026 年 2 月中旬,全美 27 個州共有 78 項與聊天機器人相關的法案正在審議或已生效,而白宮的一紙行政命令正試圖將這些州級立法努力全盤壓制。3 月 11 日,商務部長必須提交一份評估報告,點名哪些州法屬於「負擔性」(burdensome)法規——這份報告的每一個字,都可能成為引爆美國憲法訴訟的導火線。
這不僅僅是一場關於科技政策的爭論。這是美國建國以來反覆上演的聯邦與州權之爭,在人工智能時代的最新演繹——而其結果,將深刻影響全球每一家 AI 企業的合規策略,包括香港的科技公司。
2025 年 12 月,特朗普總統簽署了題為「確保人工智能國家政策框架」(Ensuring a National Policy Framework for AI)的行政命令。表面上,這是一份促進創新、減少監管負擔的政策文件;實質上,它建構了一套精密的法律武器庫,用以挑戰任何被視為阻礙 AI 發展的州級立法。
這份行政命令的核心機制有三個層次:
值得注意的是,行政命令本身並不具有直接推翻州法的法律效力——這是美國憲法分權原則的基本常識。但它所啟動的制度機器,特別是 AI 訴訟工作組,卻擁有在聯邦法院系統逐一擊破州法的能力。這種策略並非沒有先例:聯邦政府在環境法、移民法等領域都曾使用類似手段與州政府角力。
行政命令的頒布,非但沒有遏制各州的立法熱情,反而催生了一波更為強勁的州級 AI 立法浪潮。截至 2026 年 2 月中旬,27 個州共有 78 項與聊天機器人相關的法案處於「存活」狀態——要麼已經生效,要麼正在立法程序中積極推進。
加州前沿人工智能透明法案(Transparency in Frontier AI Act)——自 2026 年 1 月 1 日起生效,要求前沿 AI 模型的開發者公開其安全協議,包括紅隊測試(red-teaming)結果和風險評估。這是全美最具雄心的 AI 透明度法律,直接觸及 OpenAI、Anthropic、Google 等在加州設立總部的 AI 巨頭。同時,加州還通過了針對「伴侶聊天機器人」平台的立法,要求此類平台必須為未成年用戶實施自我傷害防護措施——這是對 Character.AI 等平台引發的青少年安全事件的直接回應。
德州負責任人工智能治理法案(Responsible AI Governance Act)——同樣自 2026 年 1 月 1 日起生效。有意思的是,德州作為共和黨執政的保守州,在 AI 監管上也走出了自己的路線,而非完全遵從聯邦政府的「輕監管」基調。這暗示了 AI 監管議題的非黨派化趨勢:無論紅州藍州,保護本州居民免受 AI 危害的政治壓力都是真實存在的。
科羅拉多 AI 法案——這部針對算法歧視的法律原定 2026 年 2 月 1 日生效,但已被推遲至 6 月 30 日。延期本身說明了一個深層問題:即使立法者有強烈的監管意願,AI 技術的複雜性也使得法律的實際執行面臨巨大挑戰。企業合規的準備時間不足、監管機構的技術能力缺口,以及法律定義的模糊性,都是推遲的原因。
伊利諾伊州 HB 3773——修訂《人權法》,明確將雇主使用 AI 工具進行歧視性招聘和人事決策納入反歧視法律框架。這是將既有民權法律延伸至 AI 領域的典型嘗試,其法律邏輯簡明有力:如果人類不能因種族或性別歧視而做出僱傭決定,那麼人類部署的 AI 系統同樣不能。
俄勒岡州 SB 1546——2 月 19 日以 26 比 1 的壓倒性票數通過州參議院,顯示出跨黨派的強烈共識。這種近乎一致的投票結果,為聯邦政府挑戰此類法律增添了政治難度——很難將一部獲得兩黨幾乎一致支持的法律定性為「不合理的負擔」。
加州數碼尊嚴法案(Digital Dignity Act,SB 1142)——新近提出,標誌著加州在 AI 監管的深度和廣度上繼續領跑全國。
華盛頓州——6 項 AI 相關法案正在推進,顯示太平洋西北部科技重鎮對 AI 治理的積極態度。
新罕布什爾州——正在考慮一項頗具哲學意味的立法:宣布 AI 為「非有感知」(nonsentient),並禁止賦予 AI 法律人格。這項法案看似超前,實則回應了一個越來越迫切的法律問題:隨着 AI 系統的能力不斷增強,法律體系是否需要預先劃定「AI 不是人」的界線?
美國 AI 監管的聯邦與州權之爭,本質上是一場憲法爭議。要理解這場衝突的深度,需要審視三個關鍵的憲法戰場。
聯邦政府最可能援引的憲法武器是商務條款。美國憲法第一條第八款賦予國會「規範與外國、各州之間以及與印第安部落的商業活動」的權力。在過去的兩個世紀中,這一條款被聯邦法院不斷擴大解釋,成為聯邦權力擴張的主要法律依據之一。
AI 訴訟工作組很可能主張:AI 服務本質上是跨州商業活動,各州各行其是的監管框架對跨州 AI 企業構成了不合理的負擔,因此違反了所謂的「休眠商務條款」(Dormant Commerce Clause)——即即使國會未明確立法,各州也不得對跨州商業施加不合理限制。
但這一論點並非無懈可擊。最高法院在過去的判例中多次確認,各州在保護本州居民健康、安全和福利方面擁有廣泛的「治安權」(police power)。加州的未成年人保護法案、科羅拉多的反算法歧視法案,都可以被定性為行使治安權的正當行為。
聯邦優先權原則源自憲法第六條的「至上條款」(Supremacy Clause),規定聯邦法律在與州法衝突時具有優先地位。然而,這裏有一個致命的邏輯缺口:目前並不存在全面的聯邦 AI 立法。
一份行政命令能否構成「聯邦法律」從而觸發優先權原則?絕大多數憲法學者的答案是否定的。行政命令約束的是聯邦行政機構的行為,而非各州的立法權。如果司法部以聯邦優先權為由挑戰州法,法院幾乎可以肯定會要求其指出具體的聯邦法律依據——而非僅僅一紙行政命令。
這意味着,除非國會通過全面的聯邦 AI 法案,否則聯邦優先權這一武器的實際效力極為有限。而以目前國會的政治分裂狀態,這樣的全面立法短期內難以實現。
美國憲法第十修正案明確規定:「本憲法未授予合眾國,也未禁止各州行使的權力,保留給各州或人民。」這是各州抵禦聯邦權力擴張的最後防線。
在 AI 監管語境中,各州可以主張:既然憲法並未明確授予聯邦政府監管人工智能的權力,而國會也未通過相關立法,那麼 AI 監管權自然屬於各州保留的權力範圍。這一論點在保守派大法官佔多數的最高法院中可能獲得同情——具有諷刺意味的是,這恰恰可能使特朗普政府自己任命的大法官成為阻擋其 AI 政策的力量。
「美國 AI 監管的悖論在於:聯邦政府以促進創新之名試圖壓制州法,但其所使用的法律工具本身就充滿了憲法上的不確定性。這種不確定性——而非任何一部具體的州法——才是 AI 企業面臨的最大監管風險。」
商務部長必須在 2026 年 3 月 11 日之前發布一份評估報告,識別哪些州級 AI 法律構成「負擔性」法規。這份報告的意義遠超一份行政文件:它將成為 AI 訴訟工作組選擇法律戰場的路線圖。
可以預見的是,報告很可能將加州的前沿 AI 透明法案列為首要目標——這部法律對 AI 企業施加了全美最嚴格的透明度要求,而加州又是全球最大的 AI 產業集群所在地。科羅拉多 AI 法案也可能被點名,儘管其已推遲至 6 月生效。
但報告的發布也可能產生意想不到的反效果。歷史經驗表明,聯邦政府對州權的挑戰往往會激發更強烈的州級立法行動。俄勒岡州 SB 1546 在 2 月 19 日以 26 比 1 通過參議院,可以被解讀為各州在聯邦壓力下加速立法的信號。
對於在美國市場運營的 AI 企業而言,聯邦與州之間的監管衝突製造了一個極為複雜的合規環境。
最直接的問題是法律不確定性。當聯邦政府公開宣示要推翻州法,但法律挑戰可能耗時數年甚至更久時,企業面臨一個兩難選擇:是按照州法合規(承擔可能的過度合規成本),還是按照聯邦政府的「輕監管」傾向行事(承擔可能的違規風險)?
更深層的挑戰是監管碎片化。78 項法案分散在 27 個州,每一項的範圍、定義和要求都有所不同。加州關注透明度和紅隊測試,科羅拉多聚焦算法歧視,伊利諾伊着眼僱傭公平,新罕布什爾則在討論 AI 的法律人格——這些法律的合規要求不僅不同,有時甚至相互矛盾。
對於大型 AI 公司如 OpenAI、Anthropic、Google 和 Meta 而言,它們有足夠的法律資源應對多州合規的複雜性。但對於中小型 AI 初創企業——包括希望進入美國市場的香港和亞洲公司——這種監管碎片化可能構成實質性的市場進入壁壘。
將美國的監管混亂與大西洋彼岸的歐盟作比較,可以更清楚地看到不同治理模式的優劣。
歐盟 AI 法案(EU AI Act)的透明度規則將於 2026 年 8 月 2 日生效,採取的是「自上而下、統一標準」的路線。無論是德國的 AI 開發者還是愛沙尼亞的 AI 部署者,都遵循同一套法規。這種統一性為企業提供了法律確定性,也降低了合規成本——但代價是監管的靈活性和對地方需求的適應性。
美國的情況則恰恰相反。沒有統一的聯邦 AI 法律,各州的立法創新提供了「監管實驗室」的功能——不同的法律方案可以在不同的州進行測試,成功的方案可以被其他州或最終被聯邦政府採納。這正是聯邦制的經典優勢。但當 27 個「實驗室」同時進行 78 項「實驗」時,混亂就不可避免了。
英國則走了第三條路。英國通信管理局(Ofcom)正在根據《網絡安全法》調查 X/Grok 平台,這代表了一種基於既有監管框架、針對具體行為(而非通用立法)的「靶向監管」模式。這種模式的優點是執行速度快、針對性強,缺點是可能缺乏系統性和前瞻性。
在聯邦與州的權力之爭背後,有一個更為根本的問題往往被忽略:無論是聯邦政府還是州政府,目前都缺乏有效監管前沿 AI 系統所需的技術能力。
加州的前沿 AI 透明法案要求開發者公開紅隊測試結果和安全協議。但誰來評估這些公開信息的充分性?監管機構是否具備理解大型語言模型內部運作機制的技術專家?當一家 AI 公司聲稱其安全協議符合法律要求時,州檢察長辦公室是否有能力對此進行獨立驗證?
科羅拉多 AI 法案推遲生效的原因之一,正是監管機構承認自身在技術能力方面的不足。這個問題不會因為監管權歸屬的改變而消失——無論最終是聯邦政府還是各州獲得監管主導權,技術能力的缺口都需要填補。
美國 AI 監管的憲法危機,對香港和亞洲的政策制定者、企業家和投資者提供了多重啟示。
美國監管環境的最大問題不是監管太嚴或太松,而是不確定。當企業不知道明天的法律規則會是什麼樣——不知道州法是否會被推翻、不知道聯邦優先權是否會被確立——它們就無法做出長期的合規投資決策。香港若能建立清晰、可預測的 AI 治理框架,即使監管要求相對嚴格,也會比美國的不確定環境更有吸引力。
香港作為單一城市經濟體,在 AI 監管上有一個天然優勢:不存在聯邦與州之間的管轄權衝突。但在「一國兩制」框架下,香港需要思考如何與內地的 AI 法規體系進行有效銜接。中國大陸已出台包括《生成式人工智能服務管理暫行辦法》在內的多項 AI 法規,香港在制定自身政策時需要確保與國家法規的兼容性,同時保持對國際企業的吸引力。
美國的經驗表明,在聯邦層面缺乏統一立法的情況下,州級立法的碎片化幾乎是不可避免的。亞洲各國和地區——包括新加坡、日本、韓國和香港——應該認識到,及早建立國家或地區層面的 AI 治理框架,比事後處理碎片化監管的成本要低得多。
無論法律框架設計得多麼精良,如果監管機構缺乏理解和評估 AI 系統的技術能力,法律就只是紙上談兵。香港在推進 AI 監管時,應同步投資於監管機構的技術能力建設——包括招聘具有 AI 背景的技術專家、建立獨立的 AI 評估和測試能力,以及與學術界和業界建立知識共享機制。
3 月 11 日之後,美國 AI 監管的走向大致有三種可能的情景:
情景一:全面法律戰。商務部報告點名多個州的法律為「負擔性」法規,AI 訴訟工作組隨即在聯邦法院提起訴訟。案件逐級上訴,最終由最高法院就 AI 監管的聯邦與州權問題作出裁決。這一過程可能耗時三至五年,期間法律不確定性持續存在。
情景二:選擇性打擊。聯邦政府策略性地挑選一兩部最「容易贏」的州法進行挑戰,避免全面開戰。這種做法可以建立有利的法律先例,同時將政治風險控制在可管理的範圍內。
情景三:政治妥協。在 3 月 11 日報告引發的政治壓力下,國會兩黨開始認真推進聯邦 AI 立法。一部全面的聯邦 AI 法案將從根本上解決優先權問題,同時為企業提供急需的法律確定性。但以目前美國國會的政治生態,這種情景的可能性最低。
無論哪種情景最終成為現實,有一點是確定的:2026 年將是美國 AI 監管格局的決定性年份。而這場發生在大洋彼岸的法律風暴,其餘波必將跨越太平洋,影響到包括香港在內的每一個與美國 AI 生態系統有所交集的市場。