ChatGPT Health:OpenAI 將 AI 連接你的醫療紀錄,隱私爭議持續升溫
每週 2.3 億人向 ChatGPT 詢問健康問題,OpenAI 趁勢推出醫療數據整合功能——但你的健康資料真的安全嗎?
每週 2.3 億人向 ChatGPT 詢問健康問題,OpenAI 趁勢推出醫療數據整合功能——但你的健康資料真的安全嗎?
2026 年 1 月 7 日,OpenAI 正式推出 ChatGPT Health,這是一項允許用戶將醫療紀錄和健康應用程式直接連接到 ChatGPT 的新功能。用戶可以授權 ChatGPT 存取來自 Apple Health、MyFitnessPal、Peloton 等健康平台的數據,甚至可以透過合作夥伴 b.well 連接到覆蓋超過 220 萬名醫療服務提供者和 320 個健康計劃的龐大醫療網絡。
這一舉措的商業邏輯清晰明了:全球每週已有超過 2.3 億人在 ChatGPT 上詢問健康相關問題,每天有超過 4,000 萬人使用它處理醫療和保險查詢。OpenAI 正在將一個已經存在的龐大用戶行為正式化、產品化。然而,這項服務引發的隱私爭議卻遠比其功能承諾更為深遠——ChatGPT Health 中的健康數據並不受美國《健康保險流通與責任法案》(HIPAA)保護,這意味著你上傳的醫療資訊理論上可以被法律傳召。
ChatGPT Health 的設計目標是成為用戶的「個人健康助手」。OpenAI 將其定位為一個能夠理解個人健康狀況背景的 AI 工具,而不僅僅是一個回答通用醫療問題的聊天機器人。具體而言,這項服務提供以下核心功能:
在數據連接方面,OpenAI 與健康數據平台 b.well 建立了關鍵合作關係。b.well 的網絡覆蓋超過 220 萬名醫療服務提供者和 320 個健康計劃,這使得 ChatGPT Health 能夠存取美國醫療體系中大量結構化的臨床數據。用戶只需授權連接,即可讓 ChatGPT 讀取其電子健康紀錄(EHR)中的資訊。
OpenAI 並非倉促推出這項服務。ChatGPT Health 的開發歷時超過兩年,期間與來自 60 個國家的 260 多位醫生合作,累計進行了超過 60 萬次反饋會議。這一規模的臨床參與在消費級 AI 產品中是前所未有的。
為了評估 ChatGPT 在健康領域的表現,OpenAI 開發了名為 HealthBench 的專門評估框架。這一框架從多個維度衡量 AI 的醫療回應品質,包括事實準確性、臨床推理能力、回應的適當性以及是否正確識別需要就醫的情況。HealthBench 的設計旨在超越傳統的醫學考試基準(如 USMLE),更貼近真實臨床場景中的用戶需求。
OpenAI 強調,ChatGPT Health 的健康對話會被單獨存儲,並且不會被用於訓練模型。這一設計意圖是為了讓用戶放心——他們的敏感健康數據不會被混入通用訓練數據集中。然而,正如後文將分析的,「不用於訓練」和「完全私密」之間存在巨大的距離。
ChatGPT Health 引發的最核心爭議在於其法律定位。在美國醫療體系中,HIPAA 是保護患者健康資訊的基石法律,它嚴格規範了「受保護實體」(如醫院、保險公司、醫療服務提供者)如何處理患者數據。然而,OpenAI 作為一家科技公司,並不屬於 HIPAA 定義的「受保護實體」或「商業夥伴」,因此 ChatGPT Health 中存儲的健康數據不受 HIPAA 保護。
這一法律真空帶來的實際風險是嚴重的。當用戶將醫療紀錄上傳到 ChatGPT Health 時,這些數據在法律上不再享有 HIPAA 提供的保護傘。這意味著,在美國法律框架下,這些健康資訊理論上可以被法院傳召、可以成為民事訴訟的證據來源、也可以在特定情況下被執法機構要求披露。
「一旦你將健康資訊上傳到這些平台,你應該假設這些資訊不再是私密的。」——哈佛大學醫學院附屬麻省總醫院 Danielle Bitterman 醫生
Bitterman 醫生的警告並非危言聳聽。在美國當前的政治環境下,這一隱私漏洞具有特別尖銳的現實意義。隨著多個州對生殖健康權利的限制日益收緊,以及部分州對性別肯定治療(gender-affirming care)的立法打壓,儲存在 ChatGPT Health 中的相關醫療紀錄可能成為法律追訴的潛在證據。一位在限制性州份尋求生殖健康諮詢或性別肯定治療的用戶,其上傳到 ChatGPT 的相關病歷資料在法律上缺乏 HIPAA 級別的保護。
值得注意的是,即便是對 AI 醫療應用持開放態度的醫學專家,也對 ChatGPT Health 的隱私承諾保持警惕。加州大學舊金山分校(UCSF)醫學院前院長 Robert Wachter 醫生的態度具有代表性:他表示自己「某種程度上」信任 OpenAI,但即便如此,他也不會將敏感的個人健康資訊上傳到該平台。
「我大概『某種程度上』相信 OpenAI 會妥善處理我的健康數據——但如果是真正敏感的資訊,例如精神健康紀錄或特定的診斷結果,我不會選擇上傳。這不是因為我認為 OpenAI 有惡意,而是因為一旦數據離開了受 HIPAA 保護的環境,你就失去了法律上的安全網。」——UCSF Robert Wachter 醫生
Wachter 醫生的立場折射出一個更深層的問題:即使技術公司的隱私意圖是善意的,法律框架的缺失意味着用戶在最壞情況下缺乏制度性保護。信任一家公司的善意與擁有法律保障是兩回事——前者可以隨公司政策、管理層或法律環境的變化而改變,後者則為用戶提供可執行的權利。
ChatGPT Health 的推出並非孤立事件,它折射出科技巨頭在 AI 醫療領域正在走上截然不同的道路。OpenAI、Anthropic 和 Google 這三家 AI 領先企業在面對同一個巨大的市場機會時,做出了耐人尋味的不同選擇。
OpenAI 選擇了直接面向消費者的路線,利用 ChatGPT 龐大的用戶基礎(每週 2.3 億健康查詢)構建一個整合個人醫療數據的健康平台。這一策略的優勢在於用戶覆蓋面廣、進入門檻低、且能快速建立數據網絡效應。風險則在於繞過了傳統醫療體系的監管框架,將隱私合規的負擔轉移到了用戶身上。
在 OpenAI 推出 ChatGPT Health 後不久,Anthropic 推出了 Claude for Healthcare。與 OpenAI 的消費者導向策略不同,Anthropic 選擇了面向醫療機構的 B2B 路線,強調 HIPAA 合規性和臨床工作流程的整合。這一策略犧牲了用戶覆蓋面的廣度,但在法規合規和機構信任方面佔據了明顯優勢。
Google 的選擇或許是最出人意料的。面對 AI 醫療建議可能帶來的法律和聲譽風險,Google 做出了一個罕見的倒退決定——從醫療相關查詢中移除了 AI Overviews(AI 概覽)功能。在其搜索引擎處理健康問題的查詢時,Google 選擇退回到傳統的搜索結果展示方式,而非讓 AI 直接生成醫療建議。這一決定反映了 Google 對醫療 AI 潛在責任風險的高度警覺。
三家企業的分歧路徑本質上反映了它們對 AI 醫療領域核心問題的不同判斷:速度與合規之間的取捨、用戶規模與機構信任之間的平衡、以及在法律框架尚未完善時是否應該先行動再修正的哲學差異。
ChatGPT Health 目前僅在美國推出,歐盟和英國由於《通用數據保護規例》(GDPR)和相關數據法規的嚴格要求而被排除在外。這一地域限制本身就是對隱私擔憂的最直接注腳——在數據保護法規更為嚴格的司法管轄區,ChatGPT Health 的現有架構無法通過合規審查。
GDPR 對健康數據的保護遠比美國現行法律嚴格。歐盟將健康數據歸類為「特殊類別個人數據」,其處理需要滿足更高的法律門檻,包括明確同意、數據最小化原則、以及嚴格的跨境傳輸限制。OpenAI 無法在歐盟推出 ChatGPT Health,這一事實本身就說明了該服務的隱私保護水平與國際最高標準之間存在差距。
對於亞洲市場而言,ChatGPT Health 何時以及如何擴展同樣充滿不確定性。日本、韓國、新加坡等國各有不同的醫療數據保護法規,OpenAI 需要為每個市場量身訂制合規方案。而中國大陸市場由於數據本地化要求和外資限制,短期內幾乎不可能成為 ChatGPT Health 的目標市場。
ChatGPT Health 的推出對香港醫療體系提出了多層面的啟示。香港正處於醫療數碼化轉型的關鍵時期——醫院管理局的電子健康紀錄互通系統(eHRSS)已累積超過 500 萬名登記市民,正在逐步建立一個覆蓋公私營醫療服務的數據基礎設施。
然而,香港的情況與美國有着根本性的不同。首先,香港的《個人資料(私隱)條例》(PDPO)雖然不如 GDPR 嚴格,但對敏感個人資料的處理仍有明確規範。如果 ChatGPT Health 或類似服務進入香港市場,個人資料私隱專員公署將需要評估其是否符合本地法律要求。其次,香港的公立醫療系統佔據了主導地位,醫管局管理着全港超過 90% 的住院服務,這意味着醫療 AI 的大規模部署更可能以機構合作的形式推進,而非直接面向消費者。
值得關注的是,香港在醫療 AI 研究方面具備獨特優勢。香港大學、中文大學等研究型院校在臨床 AI 領域有深厚積累,港府近年也透過「InnoHK 創新香港研發平台」等倡議推動 AI 醫療研究。ChatGPT Health 模式的啟示在於,香港可以探索一種更加平衡的方案——結合機構主導的合規框架與消費者友好的介面設計,在保護隱私的前提下讓市民更方便地管理個人健康資訊。
此外,香港作為中國「一國兩制」框架下的特殊行政區,在數據跨境流通方面面臨獨特挑戰。隨着內地《個人信息保護法》(PIPL)和《數據安全法》的實施,香港與內地之間的醫療數據流通需要在兩套法律體系之間尋找平衡。這使得任何 AI 醫療平台在香港的部署都比在純粹的單一法律體系中更為複雜。
ChatGPT Health 的案例揭示了 AI 醫療領域一個無法迴避的根本矛盾:要提供真正有價值的個人化健康建議,AI 需要存取大量個人健康數據;但存取和儲存這些數據的行為本身就構成隱私風險。這不是一個可以透過技術手段完全解決的問題,而是需要法律、制度和社會共識共同應對的挑戰。
OpenAI 的做法——將健康對話單獨存儲、承諾不用於模型訓練——是一個良好的開始,但遠遠不夠。只要這些數據存儲在不受 HIPAA 保護的環境中,用戶就面臨着結構性的隱私風險。而且,OpenAI 作為一家快速發展且正在經歷從非營利到營利轉型的組織,其未來的政策方向和治理結構都存在不確定性。
從用戶的角度來看,ChatGPT Health 的價值主張是誘人的:更好地理解自己的健康狀況、更有效地與醫生溝通、更明智地管理保險和醫療開支。但用戶需要清醒地認識到,這些便利是以放棄一定程度的數據控制權為代價的。在做出連接醫療紀錄的決定之前,每位用戶都應該問自己:如果這些數據在最壞的情況下被第三方取得,我是否能接受後果?
對於醫療行業和政策制定者而言,ChatGPT Health 的出現是一個警鐘。現有的法律框架——無論是美國的 HIPAA 還是其他國家的數據保護法——都是在 AI 時代到來之前設計的。它們區分了「受保護實體」和「非受保護實體」,但這種二元分類在 AI 公司開始直接處理健康數據的時代已經力不從心。我們需要新的法律框架,能夠基於數據的敏感性和處理行為的風險水平來提供保護,而非僅僅基於處理者的組織類型。