政策監管

歐盟 AI 法案執法元年:Q2 監管機構開始實質審查 高風險 AI 系統

隨著歐盟 AI 法案(EU AI Act)關鍵條款於 2026 年進入執法期,歐洲各國監管機構已開始對高風險 AI 系統展開實質性合規審查。醫療、金融和招聘等領域首當其衝。

歐盟《人工智能法案》(Artificial Intelligence Act)自 2024 年正式生效後,歷經近兩年的過渡期,核心執法條款已於 2026 年進入實質生效階段。踏入第二季度,歐洲各國的國家主管機構已開始對部署在高風險場景的 AI 系統展開首批正式合規審查。

什麼是「高風險 AI 系統」?

根據 EU AI Act 第三條附件 III,以下類別的 AI 系統被列為「高風險」:

  • 關鍵基礎設施:電力、供水、交通管理相關 AI
  • 教育及職業培訓:影響教育入學、評估的 AI 系統
  • 就業及人力資源管理:自動簡歷篩選、表現評分系統
  • 重要私人服務:信用評分、保險定價 AI
  • 生物識別系統:除特定安全用途外,遠距實時人臉識別
  • 執法:犯罪預測、測謊 AI
  • 移民及邊境管控:風險評估 AI

首批合規審查範圍

歐盟委員會消息人士透露,各成員國監管機構 Q2 的審查重點集中在以下三個領域:

1. 醫療診斷 AI

配合歐洲醫療器械監管局(EMA)的協同審查框架,多款已在歐盟市場部署的 AI 影像診斷工具(包括乳癌篩查、眼底病變識別等)須提交技術文件,說明模型訓練數據的代表性、偏差測試結果及人工監督機制。

2. 金融服務信用評分

歐洲銀行管理局(EBA)已發出通知,要求成員國監管機構核查商業銀行在個人貸款和中小企融資場景下使用的 AI 信用評分模型,重點審查「可解釋性」要求是否達標。

3. 招聘及職場 AI

多個成員國的勞工部門正與 AI 監管機構協作,審查大型企業使用的自動化招聘工具——特別是涉及 CV 篩選、視頻面試分析和員工表現評級的系統。

合規挑戰:技術與法律的張力

技術研究人員指出,EU AI Act 的「可解釋性」要求在實踐中面臨根本性挑戰:現代大型神經網路本身難以提供人類可理解的決策路徑,「可解釋 AI(XAI)」技術雖然進步,但在複雜高維度場景下仍有明顯局限。

部分企業已開始探索「混合架構」——在高風險場景中,以 XAI 可解釋模型輔助決策,同時保留黑箱模型作為第二層參考。

對亞太市場的影響

歐盟作為全球最嚴格的 AI 監管框架,其執法實踐將對亞太地區產生示範效應:

  • 香港及新加坡金管局已開始研究類似「高風險 AI 審查框架」的制度設計
  • 在歐盟市場運營的亞洲企業需確保產品符合 EU AI Act 要求
  • 跨市場部署的 AI 系統面臨「監管碎片化」挑戰

EU AI Act 完整文本及合規指南可於歐盟委員會官方網站查閱。

返回首頁