加拿大勒令 OpenAI 加強安全措施:校園槍擊案與 ChatGPT 帳戶的關聯震動全球
2026 年 2 月 25 日,加拿大多位部長聯合要求 OpenAI 迅速改善其安全協議,起因是一宗校園槍擊案的兇手被發現持有一個遭封禁的 ChatGPT 帳戶。OpenAI 承認從未就該帳戶聯繫執法機構。這是首宗將 AI 聊天機器人與大規模暴力事件直接關聯的重大國際案例,迫使全球重新審視 AI 企業在公共安全領域的責任邊界。
2026 年 2 月 25 日,加拿大多位部長聯合要求 OpenAI 迅速改善其安全協議,起因是一宗校園槍擊案的兇手被發現持有一個遭封禁的 ChatGPT 帳戶。OpenAI 承認從未就該帳戶聯繫執法機構。這是首宗將 AI 聊天機器人與大規模暴力事件直接關聯的重大國際案例,迫使全球重新審視 AI 企業在公共安全領域的責任邊界。
2026 年 2 月 25 日,加拿大聯邦政府多位部長召開緊急聯合記者會,就一宗校園槍擊案中涉及 ChatGPT 帳戶的發現,正式要求 OpenAI 立即加強其平台的安全協議。調查顯示,槍擊案的兇手此前持有一個 ChatGPT 帳戶,而該帳戶已因違反使用條款而被 OpenAI 封禁。然而,令加拿大政府震驚的是,OpenAI 在封禁該帳戶後,並未將相關情況通報給任何執法機構。
這一發現在加拿大乃至全球引發了巨大震動。一個被 AI 企業認定為存在風險並予以封禁的帳戶,其背後的使用者最終實施了大規模暴力行為——而在封禁與暴行之間的這段時間裏,執法部門對此毫不知情。這不禁令人追問:如果 OpenAI 在封禁帳戶的同時通報了警方,悲劇是否有可能被阻止?
這是首宗將 AI 聊天機器人與大規模暴力事件直接關聯的重大國際案例。它所引發的不僅是對單一企業的問責,更是對整個 AI 產業安全治理模式的根本質疑。
渥太華方面隨即召集 OpenAI 的安全團隊進行緊急會談。加拿大政府的態度非常明確:如果 AI 企業無法通過自願措施充分改善安全協議,政府將不排除採取立法行動,以法律手段強制要求 AI 企業履行安全通報義務。這一威脅的分量不容低估——它標誌着一個 G7 國家首次就 AI 安全問題向全球最大的 AI 企業之一發出如此直接的最後通牒。
面對來自加拿大政府的壓力以及全球輿論的關注,OpenAI 迅速公布了一系列安全措施的升級。這些措施包括近期在其產品線中推出的「鎖定模式」(Lockdown Mode)以及「升高風險」(Elevated Risk)標籤系統,覆蓋旗下三大核心產品:ChatGPT、Atlas 和 Codex。
「鎖定模式」是一套強化的安全協議,當系統偵測到用戶的對話內容觸及暴力威脅、自我傷害或其他高風險議題時,會自動啟動更嚴格的回應限制和監控機制。而「升高風險」標籤則是一個內部分類系統,用於標記被識別為潛在高風險的帳戶,使安全團隊能夠對這些帳戶進行更密切的關注和審查。
然而,批評者指出,這些措施更像是「亡羊補牢」式的回應,而非前瞻性的安全設計。更關鍵的問題在於:即使系統偵測到了風險並封禁了帳戶,如果企業沒有義務將這些發現通報給執法機構,那麼再先進的內部安全機制也無法彌補這一結構性漏洞。鎖定模式可以阻止用戶在平台上獲取危險資訊,但它無法阻止該用戶在現實世界中採取行動。
OpenAI 在回應中承認,公司此前確實沒有就被封禁帳戶聯繫警方。這一坦承雖然展現了一定程度的透明度,但也進一步加劇了公眾對 AI 企業安全責任缺失的擔憂。問題的核心已經不再是技術能力——OpenAI 顯然有能力偵測風險——而是制度設計:當技術偵測到潛在威脅時,資訊應該如何流動?企業的責任邊界在哪裏?
加拿大政府在這一事件中展現的態度,代表了一種正在全球蔓延的監管思維轉變。渥太華明確表示,將給予 OpenAI 及其他 AI 企業一個有限的時間窗口來自願改善安全協議,但如果改善幅度不足,立法行動將不可避免。
這種「胡蘿蔔加大棒」的策略反映了加拿大政府面臨的多重壓力。一方面,公眾對校園槍擊案的憤怒和恐懼要求政府採取果斷行動;另一方面,加拿大也不願因過於激進的監管而將 AI 企業趕出本國市場,從而在全球 AI 競賽中落後。政府需要在公共安全與科技產業發展之間找到平衡點。
值得注意的是,加拿大政府的關注焦點並非禁止 AI 技術本身,而是要求 AI 企業建立與執法機構之間的有效資訊共享機制。具體而言,渥太華希望 AI 企業在偵測到與暴力威脅相關的高風險行為時,有義務及時通報相關執法部門。這一要求看似簡單,卻觸及了 AI 治理中一個深層矛盾:用戶隱私與公共安全之間的張力。
當一個被 AI 系統標記為高風險的帳戶背後的使用者,最終真的在現實中實施了暴力行為,我們還能繼續將用戶隱私置於公共安全之上嗎?這不是一個技術問題,而是一個社會需要回答的倫理問題。
加拿大並非第一個在 AI 安全問題上對科技企業施壓的國家,但這是第一次一個 G7 國家因為一起具體的暴力事件而直接要求 AI 企業改變其安全實踐。此前的 AI 監管討論大多停留在理論層面——關於偏見、虛假資訊、就業影響等——而加拿大的行動首次將 AI 安全與具體的人命損失直接掛鉤,這使得問題的急迫性和嚴重性上升到了一個全新的層次。
這一事件的發生,使得此前 AI 安全研究者的一系列警告顯得格外具有先見之明。就在數週前,Anthropic 的多位安全研究員在離職時發出了嚴重警告。其中,前 Anthropic 安全研究員 Mrinank Sharma 直接宣稱「世界正處於危難之中」,指出即使在最注重安全的 AI 公司內部,商業壓力也在系統性地侵蝕安全承諾。
加拿大蒙特利爾大學教授、圖靈獎得主 Yoshua Bengio 則從另一個角度發出了警告。他長期關注 AI 對人類心理健康的影響,並明確警告稱,AI 互動正在引發一波「心理問題浪潮」(wave of psychological issues)。Bengio 的擔憂涵蓋了 AI 系統可能導致的用戶激進化(radicalization)、社交孤立、認知扭曲等一系列心理風險。當一個人長時間與 AI 系統互動,而該系統缺乏足夠的安全護欄時,後果可能是災難性的。
這些警告在此前或許被視為過於悲觀的預測,但加拿大校園槍擊案的發生,使它們從「假設性風險」變成了「已實現的危害」。安全研究者們一直在問的問題——「如果 AI 系統被用於策劃或輔助暴力行為怎麼辦?」——現在有了一個令人痛心的現實答案。
更令人不安的是,Anthropic 離職安全研究員指出的結構性問題——商業利益凌駕於安全考量——恰恰可能是導致 OpenAI 未能及時通報執法機構的深層原因。當企業的首要目標是用戶增長和收入最大化時,主動向警方舉報用戶的行為不僅增加了運營成本,還可能嚇退其他用戶。在這種激勵結構下,「不通報」不是一個疏忽,而是一個符合商業邏輯的選擇——只是這個選擇的代價,由無辜的生命來承擔。
加拿大的行動並非孤立事件,而是全球 AI 監管加速收緊的最新環節。多個司法管轄區已經或即將實施具有里程碑意義的 AI 監管法規,加拿大事件無疑將進一步推動這一趨勢。
歐盟《AI 法案》(EU AI Act)的透明度要求將於 2026 年 8 月全面生效。其中,第 50 條明確規定了 AI 系統提供者的透明度義務,包括向用戶清楚標示其正在與 AI 系統互動、揭示 AI 生成內容的性質,以及在高風險場景中提供充分的人類監督。雖然第 50 條本身並未直接規定向執法機構通報的義務,但它所確立的透明度原則為更嚴格的安全通報要求奠定了法律基礎。
加拿大校園槍擊案的發生,極有可能促使歐盟立法者在實施細則中加入更明確的安全通報條款。歐盟議會內部已有聲音呼籲,要求 AI 企業在偵測到涉及暴力威脅或恐怖主義的高風險行為時,必須向相關成員國的執法機構進行強制通報。
在美國,科羅拉多州的 AI 法案已於 2026 年 2 月 1 日正式開始執行,成為美國第一個全面實施 AI 監管的州。該法案主要針對「高風險 AI 系統」,要求開發者和部署者採取合理措施防止演算法歧視,並向消費者提供透明的資訊披露。雖然科羅拉多法案的重點在於反歧視而非安全通報,但它確立了一個重要先例:州級立法機構有權也有意願對 AI 系統實施實質性監管。
加拿大事件可能激發美國其他州乃至聯邦層面的立法行動,將 AI 安全通報納入監管框架。事實上,在校園槍擊問題上,美國社會本身就擁有深刻而痛苦的集體記憶,這使得任何將 AI 與校園暴力聯繫在一起的事件都具有極大的政治動能。
加拿大校園槍擊案所引發的最深層辯論,在於用戶隱私與公共安全之間的根本張力。這不是一個新問題——社交媒體公司、通訊應用和雲端服務商都曾面臨類似的困境——但 AI 聊天機器人的特殊性使得這一張力更加尖銳。
與社交媒體貼文或電子郵件不同,用戶與 AI 聊天機器人的對話往往更加私密、坦率,甚至可能涉及用戶不會與任何真人分享的想法和意圖。許多用戶將 AI 聊天機器人視為一個「安全空間」,在其中表達焦慮、憤怒甚至極端想法,而不必擔心社會評判。如果 AI 企業被要求將這些對話中的某些內容報告給執法機構,是否會破壞這種信任,從而使真正需要幫助的人不再願意向 AI 系統傾訴?
另一方面,如果一個 AI 系統偵測到某個用戶正在計劃具體的暴力行為,而企業選擇僅僅封禁帳戶而不通報警方,那麼這種「隱私保護」實際上是以潛在受害者的安全為代價的。加拿大案例清楚地表明,封禁帳戶本身並不能阻止暴力行為的發生——它只是將風險從線上轉移到了線下。
AI 企業面臨的不是「要不要保護隱私」的問題,而是「在什麼樣的條件下,公共安全的緊迫性足以超越隱私保護的優先級」的問題。加拿大的案例迫使我們正視這一灰色地帶,而不是繼續迴避。
這一辯論的核心在於「門檻」問題:什麼樣的行為或言論應該觸發向執法機構的通報?如果門檻設定過低,大量無辜用戶可能因為純粹的思想實驗或文學創作而被錯誤舉報,造成不必要的執法干預和「寒蟬效應」。如果門檻設定過高,則可能錯過真正的威脅信號——正如加拿大案例中發生的那樣。找到這個平衡點,將是未來 AI 安全監管的核心挑戰。
值得參考的是,其他行業已有類似的強制通報制度。例如,醫療專業人員在許多司法管轄區有義務通報涉嫌兒童虐待的情況;金融機構被要求就可疑交易向反洗錢機構申報。這些先例表明,在特定條件下,專業服務提供者的保密義務可以被公共安全的考量所覆蓋。AI 企業或許將成為下一個被納入此類強制通報框架的行業。
加拿大校園槍擊案以及隨後的政府行動,對香港在 AI 治理方面有着深刻而直接的啟示。作為亞洲主要的國際金融和科技中心,香港正處於 AI 監管的十字路口,需要認真思考如何在促進 AI 創新與保障公共安全之間取得平衡。
目前,香港在 AI 安全監管方面主要依賴既有的《個人資料(私隱)條例》以及個人資料私隱專員公署發布的指引。然而,這些框架在設計時並未預見到 AI 聊天機器人可能帶來的特殊安全風險。加拿大的案例清楚地表明,AI 安全不僅僅是數據保護問題,更是公共安全問題——而香港現有的法律框架在這方面存在明顯的空白。
香港特區政府近年來積極推動 AI 產業發展,包括在科學園和數碼港設立 AI 相關的創業支援項目。然而,在安全監管方面的步伐相對滯後。加拿大事件提醒我們,AI 監管不能等到悲劇發生後才被動回應——香港需要前瞻性地建立 AI 安全的監管機制,而不是等待本地出現類似事件後才亡羊補牢。
香港作為「後來者」,反而擁有借鑑國際經驗的優勢。歐盟 AI 法案的風險分級框架、科羅拉多州的高風險 AI 系統監管模式,以及加拿大即將推出的安全通報要求,都為香港提供了寶貴的參考。香港可以在吸收各方經驗的基礎上,設計一套既符合本地法律傳統又具備國際可比性的 AI 安全監管框架。
特別值得關注的是,香港在「一國兩制」框架下擁有獨立的法律體系和國際化的營商環境,這使其有條件成為亞太地區 AI 安全治理的先行者和標杆。如果香港能率先建立一套平衡、透明且可操作的 AI 安全監管機制,不僅能保障本地公眾安全,也能提升香港作為負責任科技樞紐的國際聲譽。
香港面臨的一個特殊挑戰在於跨境數據流動和執法合作。主要的 AI 服務提供者——包括 OpenAI、Google、Anthropic 等——均為境外企業,其伺服器和數據存儲設施大多位於香港以外的司法管轄區。如果香港要求這些企業就高風險行為向本地執法機構通報,將涉及複雜的跨境數據傳輸和司法協助問題。這需要政府、業界和法律界的深入討論和協作,以制定切實可行的解決方案。
加拿大校園槍擊案與 ChatGPT 帳戶的關聯,標誌着 AI 安全議題從理論探討進入了嚴酷的現實。此前,關於 AI 風險的討論大多集中在假設性場景中——AI 可能被用於製造生物武器、操縱選舉或導致大規模失業。如今,一起具體的、造成了真實人命損失的事件,將 AI 安全從學術研討會的議程推到了國家安全的層面。
OpenAI 推出的「鎖定模式」和「升高風險」標籤,是朝着正確方向邁出的一步,但遠遠不夠。真正需要改變的不是技術層面的安全功能,而是 AI 企業在整個生態系統中的角色定位——它們不能僅僅是技術提供者,還必須承擔起公共安全守門人的責任。
加拿大政府的行動可能成為一個全球性的催化劑。當一個 G7 國家明確威脅要以立法手段強制 AI 企業履行安全通報義務時,其他國家和地區很難繼續保持觀望。歐盟 AI 法案即將在 8 月全面生效,科羅拉多州的 AI 法案已經開始執行,而 Yoshua Bengio 和 Anthropic 離職研究員們的警告仍在迴響——所有這些力量匯聚在一起,正在將 AI 安全監管推向一個不可逆轉的新階段。
對於全球 AI 產業、監管機構以及每一位 AI 產品的使用者而言,這起事件傳達了一個清晰的訊息:AI 安全不是可選項,而是必選項。而確保 AI 安全的責任,不能只交給企業的自律——它需要法律的約束、政府的監督和社會的共同參與。