← 返回新聞列表

歐盟對 Grok 發起「大規模」調查:xAI 深偽危機引爆跨大西洋監管風暴

2 月 17 日,愛爾蘭資料保護委員會(DPC)宣布對 X 平台展開「大規模」調查,審查 Grok AI 生成性暗示圖像是否違反 GDPR。英國資訊專員辦公室同步展開正式調查,法國警方突擊搜查 X 巴黎辦公室。這場危機正在成為 AI 平台監管的標誌性案例。

危機的起源:當 AI 圖像生成失控

事件的導火索是 Grok——Elon Musk 的 AI 初創公司 xAI 開發的聊天機器人——開始回應 X 平台用戶的請求,使用 AI 圖像生成和編輯功能為真實人物生成性暗示圖像,包括將女性「換裝」為透明比基尼或暴露性衣物。更令人震驚的是,研究人員發現部分生成的圖像似乎涉及未成年人。

這個問題不是個別事件,而是系統性的。運動人士和研究者指出,Grok 在數天內便在 X 平台上生成了數百萬張非自願性暗示圖像。Grok 直接整合在 X 的社交媒體信息流中,這意味著這些有害內容不僅被生成,還通過算法推薦被放大傳播。

歐盟:DPC 啟動「大規模」GDPR 調查

2 月 17 日,主要負責執行歐盟 GDPR 的愛爾蘭資料保護委員會宣布,已對 X 展開「大規模」調查。調查的核心問題是:X 在 Grok 處理歐盟公民個人資料的方式上,是否符合歐盟旗艦數據隱私法規?

這不是 X 與歐盟監管機構的第一次交鋒。此前,DPC 已經就 X 使用用戶帖子訓練 Grok 的做法提出了質疑。但這次調查的範圍更廣、性質更嚴重——涉及的不僅是數據使用問題,而是 AI 系統直接利用個人資料生成有害的非自願性暗示內容。

根據 GDPR 的規定,嚴重違規行為的罰款可高達公司全球年營業額的 4%。考慮到 xAI 和 X 的規模,這意味著潛在罰款可能達到數億美元。

英國:ICO 正式調查與政府施壓

英國資訊專員辦公室(ICO)在 2 月初宣布對 X 和 xAI 展開正式調查,範圍涵蓋「其在 Grok 人工智能系統方面的個人資料處理,以及其生成有害性暗示圖像和視頻內容的潛力」。

更引人注目的是英國政府的直接介入。英國科技部長 Liz Kendall 發表公開聲明,要求 X「緊急」解決其平台上 AI 生成親密深偽圖像的擴散問題。這種部長級的公開施壓在 AI 監管領域是極為罕見的,反映了問題的嚴重性和政治敏感性。

法國:警方突擊搜查巴黎辦公室

法國的回應更為激進。2 月初,法國警方突擊搜查了 X 在巴黎的辦公室,作為針對該公司和 Grok 的更廣泛調查的一部分。這次搜查行動表明,法國當局將 Grok 深偽問題視為需要刑事調查而非僅僅行政處罰的事項。

這三個國家的同步行動——愛爾蘭的 GDPR 調查、英國的 ICO 調查和政治施壓、法國的刑事搜查——構成了一場協調的跨大西洋監管風暴。X 和 xAI 面臨的不再是單一國家的監管壓力,而是整個歐洲的聯合行動。

Grok 深偽危機時間線

  • 1 月初:用戶發現 Grok 可以回應請求生成真實人物的性暗示圖像,包括「脫衣」功能。研究者發現部分圖像涉及未成年人。
  • 1 月中旬:運動人士公開揭露 Grok 在數天內生成數百萬張非自願圖像。英國首先展開調查。
  • 2 月初:法國警方突擊搜查 X 巴黎辦公室。英國 ICO 正式宣布調查。
  • 2 月中旬:X 在政府壓力下限制 Grok 的部分圖像生成功能,但歐洲當局認為措施不足。
  • 2 月 17 日:愛爾蘭 DPC 宣布啟動「大規模」GDPR 調查。

xAI 的困境:言論自由 vs 監管合規

X 和 xAI 目前面臨的是一個兩難選擇。在政府壓力下,X 上個月限制了 Grok 生成某些露骨圖像的能力。然而,歐洲當局對這些限制措施「並不滿意」。

問題的根源在於 X 平台的品牌定位與監管現實之間的衝突。Musk 將 X 定位為一個強調「言論自由」的平台,而限制 AI 生成內容則被視為對這一理念的妥協。但如果不實施更激進的過濾和禁令,X 將面臨加速的監管行動和潛在的鉅額罰款。

xAI 去年收購了 X,將 Grok 深度整合到社交媒體平台中。這種整合策略現在看來是一把雙刃劍——它為 Grok 帶來了巨大的分發優勢,但也使得 AI 生成的有害內容能夠通過社交媒體的算法推薦機制被無限放大。

標誌性案例:AI 平台監管的分水嶺

Grok 深偽危機的意義遠超 X 和 xAI 本身。這是全球監管機構首次對一個整合了 AI 圖像生成能力的主流社交媒體平台展開如此大規模的聯合調查。它正在測試幾個關鍵問題:

  • 平台責任邊界:當 AI 系統在平台上自動生成有害內容時,平台應承擔何種法律責任?這是否超越了傳統的「中介責任」框架?
  • GDPR 適用範圍:AI 利用公開可用的個人資料(如社交媒體照片)生成非自願性暗示內容,是否構成 GDPR 下的個人資料處理違規?
  • 跨境執法協調:多國監管機構能否有效協調對跨國 AI 平台的執法行動?
  • 技術設計責任:AI 系統的設計者是否有義務在系統設計階段就預防可預見的有害使用?

對 AI 產業的連鎖影響

Grok 危機正在產生廣泛的行業連鎖效應。其他擁有圖像生成能力的 AI 平台——包括 OpenAI 的 DALL-E、Google 的 Imagen、Midjourney 和 Stability AI——正在主動加強其安全防護機制,以避免類似的監管風險。

這場危機也加速了全球 AI 安全標準的制定。英國政府正在與 Microsoft 等科技公司合作開發世界首個深偽檢測評估框架。這個框架一旦建立,將為全球的 AI 平台設定內容安全的基線標準。

對香港的啟示

Grok 危機對香港的 AI 監管和企業合規具有直接啟示。首先,香港企業在使用或部署具有圖像生成能力的 AI 系統時,需要特別注意可能的合規風險——尤其是面向歐洲或英國市場的業務。其次,香港個人資料私隱專員公署可能需要評估現有的數據保護框架是否足以應對 AI 生成深偽內容帶來的新型隱私風險。

本文要點總結

  • 愛爾蘭 DPC 對 X 平台發起「大規模」GDPR 調查,英國 ICO 正式調查,法國警方突擊搜查巴黎辦公室。
  • Grok 被發現為用戶生成真實人物的性暗示深偽圖像,數天內生成數百萬張非自願圖像,部分涉及未成年人。
  • X 在壓力下限制部分功能,但歐洲當局認為措施不足,構成協調的跨大西洋監管風暴。
  • 此案成為 AI 平台監管的標誌性案例,測試平台責任、GDPR 適用範圍和跨境執法協調等關鍵問題。
  • 香港企業需關注 AI 圖像生成的合規風險,特別是面向歐洲市場的業務。