← 返回新聞列表

加拿大勒令 OpenAI 加強安全措施:校園槍擊案與 ChatGPT 帳戶的關聯震動全球

2026 年 2 月 25 日,加拿大多位部長聯合要求 OpenAI 迅速改善其安全協議,起因是一宗校園槍擊案的兇手被發現持有一個遭封禁的 ChatGPT 帳戶。OpenAI 承認從未就該帳戶聯繫執法機構。這是首宗將 AI 聊天機器人與大規模暴力事件直接關聯的重大國際案例,迫使全球重新審視 AI 企業在公共安全領域的責任邊界。

事件始末:從校園槍擊到 AI 安全危機

2026 年 2 月 25 日,加拿大聯邦政府多位部長召開緊急聯合記者會,就一宗校園槍擊案中涉及 ChatGPT 帳戶的發現,正式要求 OpenAI 立即加強其平台的安全協議。調查顯示,槍擊案的兇手此前持有一個 ChatGPT 帳戶,而該帳戶已因違反使用條款而被 OpenAI 封禁。然而,令加拿大政府震驚的是,OpenAI 在封禁該帳戶後,並未將相關情況通報給任何執法機構。

這一發現在加拿大乃至全球引發了巨大震動。一個被 AI 企業認定為存在風險並予以封禁的帳戶,其背後的使用者最終實施了大規模暴力行為——而在封禁與暴行之間的這段時間裏,執法部門對此毫不知情。這不禁令人追問:如果 OpenAI 在封禁帳戶的同時通報了警方,悲劇是否有可能被阻止?

這是首宗將 AI 聊天機器人與大規模暴力事件直接關聯的重大國際案例。它所引發的不僅是對單一企業的問責,更是對整個 AI 產業安全治理模式的根本質疑。

渥太華方面隨即召集 OpenAI 的安全團隊進行緊急會談。加拿大政府的態度非常明確:如果 AI 企業無法通過自願措施充分改善安全協議,政府將不排除採取立法行動,以法律手段強制要求 AI 企業履行安全通報義務。這一威脅的分量不容低估——它標誌着一個 G7 國家首次就 AI 安全問題向全球最大的 AI 企業之一發出如此直接的最後通牒。

OpenAI 的回應:「鎖定模式」與「升高風險」標籤

面對來自加拿大政府的壓力以及全球輿論的關注,OpenAI 迅速公布了一系列安全措施的升級。這些措施包括近期在其產品線中推出的「鎖定模式」(Lockdown Mode)以及「升高風險」(Elevated Risk)標籤系統,覆蓋旗下三大核心產品:ChatGPT、Atlas 和 Codex。

「鎖定模式」是一套強化的安全協議,當系統偵測到用戶的對話內容觸及暴力威脅、自我傷害或其他高風險議題時,會自動啟動更嚴格的回應限制和監控機制。而「升高風險」標籤則是一個內部分類系統,用於標記被識別為潛在高風險的帳戶,使安全團隊能夠對這些帳戶進行更密切的關注和審查。

OpenAI 近期安全措施更新一覽

  • 鎖定模式(Lockdown Mode):針對涉及暴力、自我傷害等高風險對話的自動強化安全協議,適用於 ChatGPT、Atlas 和 Codex。
  • 升高風險標籤(Elevated Risk):內部帳戶分類系統,對被識別為潛在高風險的帳戶進行標記和加強監控。
  • 跨產品部署:上述安全機制已在 ChatGPT、Atlas 和 Codex 三大平台同步上線。
  • 安全團隊擴編:OpenAI 承諾增加專門負責威脅評估和執法機構聯絡的人員。

然而,批評者指出,這些措施更像是「亡羊補牢」式的回應,而非前瞻性的安全設計。更關鍵的問題在於:即使系統偵測到了風險並封禁了帳戶,如果企業沒有義務將這些發現通報給執法機構,那麼再先進的內部安全機制也無法彌補這一結構性漏洞。鎖定模式可以阻止用戶在平台上獲取危險資訊,但它無法阻止該用戶在現實世界中採取行動。

OpenAI 在回應中承認,公司此前確實沒有就被封禁帳戶聯繫警方。這一坦承雖然展現了一定程度的透明度,但也進一步加劇了公眾對 AI 企業安全責任缺失的擔憂。問題的核心已經不再是技術能力——OpenAI 顯然有能力偵測風險——而是制度設計:當技術偵測到潛在威脅時,資訊應該如何流動?企業的責任邊界在哪裏?

加拿大政府的立場:自願改善還是強制立法?

加拿大政府在這一事件中展現的態度,代表了一種正在全球蔓延的監管思維轉變。渥太華明確表示,將給予 OpenAI 及其他 AI 企業一個有限的時間窗口來自願改善安全協議,但如果改善幅度不足,立法行動將不可避免。

這種「胡蘿蔔加大棒」的策略反映了加拿大政府面臨的多重壓力。一方面,公眾對校園槍擊案的憤怒和恐懼要求政府採取果斷行動;另一方面,加拿大也不願因過於激進的監管而將 AI 企業趕出本國市場,從而在全球 AI 競賽中落後。政府需要在公共安全與科技產業發展之間找到平衡點。

值得注意的是,加拿大政府的關注焦點並非禁止 AI 技術本身,而是要求 AI 企業建立與執法機構之間的有效資訊共享機制。具體而言,渥太華希望 AI 企業在偵測到與暴力威脅相關的高風險行為時,有義務及時通報相關執法部門。這一要求看似簡單,卻觸及了 AI 治理中一個深層矛盾:用戶隱私與公共安全之間的張力。

當一個被 AI 系統標記為高風險的帳戶背後的使用者,最終真的在現實中實施了暴力行為,我們還能繼續將用戶隱私置於公共安全之上嗎?這不是一個技術問題,而是一個社會需要回答的倫理問題。

加拿大並非第一個在 AI 安全問題上對科技企業施壓的國家,但這是第一次一個 G7 國家因為一起具體的暴力事件而直接要求 AI 企業改變其安全實踐。此前的 AI 監管討論大多停留在理論層面——關於偏見、虛假資訊、就業影響等——而加拿大的行動首次將 AI 安全與具體的人命損失直接掛鉤,這使得問題的急迫性和嚴重性上升到了一個全新的層次。

AI 安全研究者的警告:預言成真的恐懼

這一事件的發生,使得此前 AI 安全研究者的一系列警告顯得格外具有先見之明。就在數週前,Anthropic 的多位安全研究員在離職時發出了嚴重警告。其中,前 Anthropic 安全研究員 Mrinank Sharma 直接宣稱「世界正處於危難之中」,指出即使在最注重安全的 AI 公司內部,商業壓力也在系統性地侵蝕安全承諾。

加拿大蒙特利爾大學教授、圖靈獎得主 Yoshua Bengio 則從另一個角度發出了警告。他長期關注 AI 對人類心理健康的影響,並明確警告稱,AI 互動正在引發一波「心理問題浪潮」(wave of psychological issues)。Bengio 的擔憂涵蓋了 AI 系統可能導致的用戶激進化(radicalization)、社交孤立、認知扭曲等一系列心理風險。當一個人長時間與 AI 系統互動,而該系統缺乏足夠的安全護欄時,後果可能是災難性的。

這些警告在此前或許被視為過於悲觀的預測,但加拿大校園槍擊案的發生,使它們從「假設性風險」變成了「已實現的危害」。安全研究者們一直在問的問題——「如果 AI 系統被用於策劃或輔助暴力行為怎麼辦?」——現在有了一個令人痛心的現實答案。

更令人不安的是,Anthropic 離職安全研究員指出的結構性問題——商業利益凌駕於安全考量——恰恰可能是導致 OpenAI 未能及時通報執法機構的深層原因。當企業的首要目標是用戶增長和收入最大化時,主動向警方舉報用戶的行為不僅增加了運營成本,還可能嚇退其他用戶。在這種激勵結構下,「不通報」不是一個疏忽,而是一個符合商業邏輯的選擇——只是這個選擇的代價,由無辜的生命來承擔。

全球監管格局:從歐盟到科羅拉多的連鎖反應

加拿大的行動並非孤立事件,而是全球 AI 監管加速收緊的最新環節。多個司法管轄區已經或即將實施具有里程碑意義的 AI 監管法規,加拿大事件無疑將進一步推動這一趨勢。

歐盟 AI 法案第 50 條:透明度義務

歐盟《AI 法案》(EU AI Act)的透明度要求將於 2026 年 8 月全面生效。其中,第 50 條明確規定了 AI 系統提供者的透明度義務,包括向用戶清楚標示其正在與 AI 系統互動、揭示 AI 生成內容的性質,以及在高風險場景中提供充分的人類監督。雖然第 50 條本身並未直接規定向執法機構通報的義務,但它所確立的透明度原則為更嚴格的安全通報要求奠定了法律基礎。

加拿大校園槍擊案的發生,極有可能促使歐盟立法者在實施細則中加入更明確的安全通報條款。歐盟議會內部已有聲音呼籲,要求 AI 企業在偵測到涉及暴力威脅或恐怖主義的高風險行為時,必須向相關成員國的執法機構進行強制通報。

科羅拉多 AI 法案:美國首個州級 AI 監管

在美國,科羅拉多州的 AI 法案已於 2026 年 2 月 1 日正式開始執行,成為美國第一個全面實施 AI 監管的州。該法案主要針對「高風險 AI 系統」,要求開發者和部署者採取合理措施防止演算法歧視,並向消費者提供透明的資訊披露。雖然科羅拉多法案的重點在於反歧視而非安全通報,但它確立了一個重要先例:州級立法機構有權也有意願對 AI 系統實施實質性監管。

加拿大事件可能激發美國其他州乃至聯邦層面的立法行動,將 AI 安全通報納入監管框架。事實上,在校園槍擊問題上,美國社會本身就擁有深刻而痛苦的集體記憶,這使得任何將 AI 與校園暴力聯繫在一起的事件都具有極大的政治動能。

全球 AI 安全監管進展時間線

  • 2026 年 2 月 1 日:科羅拉多州 AI 法案正式執行,成為美國首個全面實施 AI 監管的州。
  • 2026 年 2 月 25 日:加拿大政府因校園槍擊案勒令 OpenAI 加強安全協議,威脅立法行動。
  • 2026 年 8 月(預計):歐盟 AI 法案第 50 條透明度要求全面生效,高風險 AI 系統面臨嚴格合規義務。

用戶隱私與公共安全的根本張力

加拿大校園槍擊案所引發的最深層辯論,在於用戶隱私與公共安全之間的根本張力。這不是一個新問題——社交媒體公司、通訊應用和雲端服務商都曾面臨類似的困境——但 AI 聊天機器人的特殊性使得這一張力更加尖銳。

與社交媒體貼文或電子郵件不同,用戶與 AI 聊天機器人的對話往往更加私密、坦率,甚至可能涉及用戶不會與任何真人分享的想法和意圖。許多用戶將 AI 聊天機器人視為一個「安全空間」,在其中表達焦慮、憤怒甚至極端想法,而不必擔心社會評判。如果 AI 企業被要求將這些對話中的某些內容報告給執法機構,是否會破壞這種信任,從而使真正需要幫助的人不再願意向 AI 系統傾訴?

另一方面,如果一個 AI 系統偵測到某個用戶正在計劃具體的暴力行為,而企業選擇僅僅封禁帳戶而不通報警方,那麼這種「隱私保護」實際上是以潛在受害者的安全為代價的。加拿大案例清楚地表明,封禁帳戶本身並不能阻止暴力行為的發生——它只是將風險從線上轉移到了線下。

AI 企業面臨的不是「要不要保護隱私」的問題,而是「在什麼樣的條件下,公共安全的緊迫性足以超越隱私保護的優先級」的問題。加拿大的案例迫使我們正視這一灰色地帶,而不是繼續迴避。

這一辯論的核心在於「門檻」問題:什麼樣的行為或言論應該觸發向執法機構的通報?如果門檻設定過低,大量無辜用戶可能因為純粹的思想實驗或文學創作而被錯誤舉報,造成不必要的執法干預和「寒蟬效應」。如果門檻設定過高,則可能錯過真正的威脅信號——正如加拿大案例中發生的那樣。找到這個平衡點,將是未來 AI 安全監管的核心挑戰。

值得參考的是,其他行業已有類似的強制通報制度。例如,醫療專業人員在許多司法管轄區有義務通報涉嫌兒童虐待的情況;金融機構被要求就可疑交易向反洗錢機構申報。這些先例表明,在特定條件下,專業服務提供者的保密義務可以被公共安全的考量所覆蓋。AI 企業或許將成為下一個被納入此類強制通報框架的行業。

對香港的啟示:AI 監管的緊迫課題

加拿大校園槍擊案以及隨後的政府行動,對香港在 AI 治理方面有着深刻而直接的啟示。作為亞洲主要的國際金融和科技中心,香港正處於 AI 監管的十字路口,需要認真思考如何在促進 AI 創新與保障公共安全之間取得平衡。

香港現有框架的不足

目前,香港在 AI 安全監管方面主要依賴既有的《個人資料(私隱)條例》以及個人資料私隱專員公署發布的指引。然而,這些框架在設計時並未預見到 AI 聊天機器人可能帶來的特殊安全風險。加拿大的案例清楚地表明,AI 安全不僅僅是數據保護問題,更是公共安全問題——而香港現有的法律框架在這方面存在明顯的空白。

香港特區政府近年來積極推動 AI 產業發展,包括在科學園和數碼港設立 AI 相關的創業支援項目。然而,在安全監管方面的步伐相對滯後。加拿大事件提醒我們,AI 監管不能等到悲劇發生後才被動回應——香港需要前瞻性地建立 AI 安全的監管機制,而不是等待本地出現類似事件後才亡羊補牢。

借鑑國際經驗的機遇

香港作為「後來者」,反而擁有借鑑國際經驗的優勢。歐盟 AI 法案的風險分級框架、科羅拉多州的高風險 AI 系統監管模式,以及加拿大即將推出的安全通報要求,都為香港提供了寶貴的參考。香港可以在吸收各方經驗的基礎上,設計一套既符合本地法律傳統又具備國際可比性的 AI 安全監管框架。

特別值得關注的是,香港在「一國兩制」框架下擁有獨立的法律體系和國際化的營商環境,這使其有條件成為亞太地區 AI 安全治理的先行者和標杆。如果香港能率先建立一套平衡、透明且可操作的 AI 安全監管機制,不僅能保障本地公眾安全,也能提升香港作為負責任科技樞紐的國際聲譽。

跨境數據與執法合作

香港面臨的一個特殊挑戰在於跨境數據流動和執法合作。主要的 AI 服務提供者——包括 OpenAI、Google、Anthropic 等——均為境外企業,其伺服器和數據存儲設施大多位於香港以外的司法管轄區。如果香港要求這些企業就高風險行為向本地執法機構通報,將涉及複雜的跨境數據傳輸和司法協助問題。這需要政府、業界和法律界的深入討論和協作,以制定切實可行的解決方案。

結語:一個時代的轉折點

加拿大校園槍擊案與 ChatGPT 帳戶的關聯,標誌着 AI 安全議題從理論探討進入了嚴酷的現實。此前,關於 AI 風險的討論大多集中在假設性場景中——AI 可能被用於製造生物武器、操縱選舉或導致大規模失業。如今,一起具體的、造成了真實人命損失的事件,將 AI 安全從學術研討會的議程推到了國家安全的層面。

OpenAI 推出的「鎖定模式」和「升高風險」標籤,是朝着正確方向邁出的一步,但遠遠不夠。真正需要改變的不是技術層面的安全功能,而是 AI 企業在整個生態系統中的角色定位——它們不能僅僅是技術提供者,還必須承擔起公共安全守門人的責任。

加拿大政府的行動可能成為一個全球性的催化劑。當一個 G7 國家明確威脅要以立法手段強制 AI 企業履行安全通報義務時,其他國家和地區很難繼續保持觀望。歐盟 AI 法案即將在 8 月全面生效,科羅拉多州的 AI 法案已經開始執行,而 Yoshua Bengio 和 Anthropic 離職研究員們的警告仍在迴響——所有這些力量匯聚在一起,正在將 AI 安全監管推向一個不可逆轉的新階段。

對於全球 AI 產業、監管機構以及每一位 AI 產品的使用者而言,這起事件傳達了一個清晰的訊息:AI 安全不是可選項,而是必選項。而確保 AI 安全的責任,不能只交給企業的自律——它需要法律的約束、政府的監督和社會的共同參與。

本文要點總結

  • 加拿大政府於 2026 年 2 月 25 日要求 OpenAI 迅速改善安全協議,起因是校園槍擊案兇手持有被封禁的 ChatGPT 帳戶,而 OpenAI 承認未曾通報執法機構。
  • OpenAI 已推出「鎖定模式」和「升高風險」標籤,覆蓋 ChatGPT、Atlas 和 Codex,但批評者認為這僅是事後補救。
  • 這是首宗將 AI 聊天機器人與大規模暴力事件直接關聯的重大國際案例,引發 AI 企業安全通報責任的全球辯論。
  • Anthropic 離職安全研究員和 Yoshua Bengio 此前的警告,在事件發生後顯得格外有先見之明。
  • 歐盟 AI 法案第 50 條將於 8 月生效、科羅拉多 AI 法案已於 2 月執行,全球 AI 安全監管正加速收緊。
  • 用戶隱私與公共安全的張力是核心議題,AI 企業可能被納入類似醫療和金融行業的強制通報框架。
  • 香港需前瞻性地建立 AI 安全監管機制,借鑑國際經驗,解決跨境數據與執法合作的特殊挑戰。