Apple 於 2026 年 3 月 26 日正式確認,新一代 Siri 將以 Google Gemini 模型為核心驅動力,目標隨 iOS 26.4 正式推出。這是蘋果與競爭對手 Google 迄今最深度的技術合作,也是 AI 領域最出人意料的跨界合作之一。
新版 Siri 的核心能力
螢幕感知(On-Screen Awareness)
新版 Siri 最重要的能力升級是對當前螢幕內容的理解與操作:
- 理解用戶正在查看的頁面、文件、圖片或應用界面
- 根據螢幕內容執行相關操作,無需用戶逐步描述
- 例如:「把這封郵件的地址加到我的行事曆活動」、「用截圖中的菜單幫我點外賣」
跨 App 深度整合
- 跨 App 執行複雜任務,不再局限於單一應用
- 與 Apple 第三方 App 生態深度整合,開發者可通過 API 授權 Siri 訪問
- 支援鏈式任務:從閱讀郵件 → 創建事件 → 發送邀請,一句指令完成
跨會話記憶
- 在不同對話中保留用戶偏好與歷史上下文
- 個人化程度大幅提升,不再每次都需要重新說明背景
隱私架構:私人雲計算
Apple 強調,儘管採用 Google 的 Gemini 模型,用戶的敏感查詢不會直接傳送至 Google 服務器。Apple 的**私人雲計算(Private Cloud Compute)**框架確保:
- 敏感請求在 Apple 自建的隔離雲端環境中處理
- Apple 服務器無法記錄或保留用戶的查詢內容
- Google 僅提供模型能力,無法訪問 Apple 用戶數據
為何選擇 Google,而非 OpenAI 或自建?
根據消息人士透露,Apple 內部評估後選擇 Gemini 的主要原因:
- 多模態與端側效率:Gemini 3.1 Pro 在視覺理解及硬件效率上最符合 Apple Silicon 的架構需求
- 私有雲兼容性:Google 的模型架構最易適配 Apple 私人雲計算框架的隔離設計
- 速度壓力:Apple 需要在 WWDC 2026 前展示全面升級的 AI 能力,自研時程無法保證
行業影響
對 Google:Gemini 模型現在將搭載於全球最具影響力的消費硬件平台,日活用戶規模超過任何單一 AI 應用。
對 Apple:此舉被分析師解讀為 Apple 罕見地承認自身 AI 研發的局限,優先以合作確保用戶體驗,而非堅持自研技術主權。
對競爭格局:OpenAI 的 ChatGPT 與 Apple Intelligence 的整合被進一步邊緣化,Gemini 成為 Siri 的主力引擎。