歐盟對 Grok 發起「大規模」調查:xAI 深偽危機引爆跨大西洋監管風暴
2 月 17 日,愛爾蘭資料保護委員會(DPC)宣布對 X 平台展開「大規模」調查,審查 Grok AI 生成性暗示圖像是否違反 GDPR。英國資訊專員辦公室同步展開正式調查,法國警方突擊搜查 X 巴黎辦公室。這場危機正在成為 AI 平台監管的標誌性案例。
2 月 17 日,愛爾蘭資料保護委員會(DPC)宣布對 X 平台展開「大規模」調查,審查 Grok AI 生成性暗示圖像是否違反 GDPR。英國資訊專員辦公室同步展開正式調查,法國警方突擊搜查 X 巴黎辦公室。這場危機正在成為 AI 平台監管的標誌性案例。
事件的導火索是 Grok——Elon Musk 的 AI 初創公司 xAI 開發的聊天機器人——開始回應 X 平台用戶的請求,使用 AI 圖像生成和編輯功能為真實人物生成性暗示圖像,包括將女性「換裝」為透明比基尼或暴露性衣物。更令人震驚的是,研究人員發現部分生成的圖像似乎涉及未成年人。
這個問題不是個別事件,而是系統性的。運動人士和研究者指出,Grok 在數天內便在 X 平台上生成了數百萬張非自願性暗示圖像。Grok 直接整合在 X 的社交媒體信息流中,這意味著這些有害內容不僅被生成,還通過算法推薦被放大傳播。
2 月 17 日,主要負責執行歐盟 GDPR 的愛爾蘭資料保護委員會宣布,已對 X 展開「大規模」調查。調查的核心問題是:X 在 Grok 處理歐盟公民個人資料的方式上,是否符合歐盟旗艦數據隱私法規?
這不是 X 與歐盟監管機構的第一次交鋒。此前,DPC 已經就 X 使用用戶帖子訓練 Grok 的做法提出了質疑。但這次調查的範圍更廣、性質更嚴重——涉及的不僅是數據使用問題,而是 AI 系統直接利用個人資料生成有害的非自願性暗示內容。
根據 GDPR 的規定,嚴重違規行為的罰款可高達公司全球年營業額的 4%。考慮到 xAI 和 X 的規模,這意味著潛在罰款可能達到數億美元。
英國資訊專員辦公室(ICO)在 2 月初宣布對 X 和 xAI 展開正式調查,範圍涵蓋「其在 Grok 人工智能系統方面的個人資料處理,以及其生成有害性暗示圖像和視頻內容的潛力」。
更引人注目的是英國政府的直接介入。英國科技部長 Liz Kendall 發表公開聲明,要求 X「緊急」解決其平台上 AI 生成親密深偽圖像的擴散問題。這種部長級的公開施壓在 AI 監管領域是極為罕見的,反映了問題的嚴重性和政治敏感性。
法國的回應更為激進。2 月初,法國警方突擊搜查了 X 在巴黎的辦公室,作為針對該公司和 Grok 的更廣泛調查的一部分。這次搜查行動表明,法國當局將 Grok 深偽問題視為需要刑事調查而非僅僅行政處罰的事項。
這三個國家的同步行動——愛爾蘭的 GDPR 調查、英國的 ICO 調查和政治施壓、法國的刑事搜查——構成了一場協調的跨大西洋監管風暴。X 和 xAI 面臨的不再是單一國家的監管壓力,而是整個歐洲的聯合行動。
X 和 xAI 目前面臨的是一個兩難選擇。在政府壓力下,X 上個月限制了 Grok 生成某些露骨圖像的能力。然而,歐洲當局對這些限制措施「並不滿意」。
問題的根源在於 X 平台的品牌定位與監管現實之間的衝突。Musk 將 X 定位為一個強調「言論自由」的平台,而限制 AI 生成內容則被視為對這一理念的妥協。但如果不實施更激進的過濾和禁令,X 將面臨加速的監管行動和潛在的鉅額罰款。
xAI 去年收購了 X,將 Grok 深度整合到社交媒體平台中。這種整合策略現在看來是一把雙刃劍——它為 Grok 帶來了巨大的分發優勢,但也使得 AI 生成的有害內容能夠通過社交媒體的算法推薦機制被無限放大。
Grok 深偽危機的意義遠超 X 和 xAI 本身。這是全球監管機構首次對一個整合了 AI 圖像生成能力的主流社交媒體平台展開如此大規模的聯合調查。它正在測試幾個關鍵問題:
Grok 危機正在產生廣泛的行業連鎖效應。其他擁有圖像生成能力的 AI 平台——包括 OpenAI 的 DALL-E、Google 的 Imagen、Midjourney 和 Stability AI——正在主動加強其安全防護機制,以避免類似的監管風險。
這場危機也加速了全球 AI 安全標準的制定。英國政府正在與 Microsoft 等科技公司合作開發世界首個深偽檢測評估框架。這個框架一旦建立,將為全球的 AI 平台設定內容安全的基線標準。
Grok 危機對香港的 AI 監管和企業合規具有直接啟示。首先,香港企業在使用或部署具有圖像生成能力的 AI 系統時,需要特別注意可能的合規風險——尤其是面向歐洲或英國市場的業務。其次,香港個人資料私隱專員公署可能需要評估現有的數據保護框架是否足以應對 AI 生成深偽內容帶來的新型隱私風險。