FDA 放寬 AI 醫療指引:Aidoc 獲批首個綜合型 AI 基礎模型
政策轉變加速 AI 醫療創新,但也引發安全性研究需求的呼聲
2026 年 1 月見證了美國 AI 醫療監管的重大轉變。FDA 發布了更新的臨床決策支援(CDS)工具指引,放寬了關鍵的醫療設備要求。同月,Aidoc 宣布 FDA 批准了醫療保健行業首個綜合型 AI 基礎模型。這些發展標誌著 AI 在醫療領域的應用正在加速。
2026 年 1 月 6 日,FDA 發布了更新的臨床決策支援工具指引,放寬了關鍵的醫療設備要求。根據這一變化,許多提供診斷建議或執行病史採集等輔助任務的生成式 AI 工具——在之前的政策下可能需要 FDA 審批——現在可以在無需 FDA 審查的情況下進入診所。
這一政策轉變引發了雙面反應。支持者認為這將加速 AI 醫療創新,讓有益的工具更快地服務患者。批評者則擔心未經充分審查的 AI 工具可能帶來安全風險。
2026 年 1 月 21 日,Aidoc 宣布 FDA 批准了醫療保健行業首個綜合型 AI 分診解決方案。這一突破由 Aidoc 自主開發的 AI 基礎模型 CARE™ 驅動。
在 FDA 審查的關鍵研究中,該解決方案涵蓋的 11 個適應症達到了令人印象深刻的性能:
這意味著該系統能夠在極高的準確率下識別關鍵發現,同時保持極低的誤報率。對於醫療系統而言,這可以幫助更早發現危重發現,減少患者流程中的延誤。
隨著 FDA 指引的放寬,一系列新的 AI 醫療應用開始湧現:
猶他州啟動了一項首創的試點計劃,與 Doctronic 合作測試自主 AI 處方續期服務。這標誌著 AI 在醫療決策中的角色正在從輔助向自主方向發展。
OpenAI 推出了 ChatGPT Health,這一功能可以根據用戶上傳的醫療記錄和穿戴設備數據,提供個性化的健康建議。這代表了消費級 AI 健康應用的新方向。
FDA 政策轉變也引發了關於 AI 醫療安全性的討論。業界專家呼籲加強 AI 安全性研究,特別是在以下領域:
「在 FDA 對臨床 AI 的政策轉變之後,我們比以往任何時候都更需要 AI 安全性研究。隨著更多 AI 工具在無需 FDA 審查的情況下進入診所,獨立的安全性驗證變得更加重要。」
醫療保健領導者對 2026 年 AI 發展提出了以下預測:
香港醫療體系可以從美國的發展中獲得幾點啟示:
香港醫管局近年來積極探索 AI 在放射科、病理科和急診等領域的應用,FDA 的政策變化和 Aidoc 的突破為香港提供了重要的參考案例。