產業動態

Apple 確認以 Google Gemini 重建新版 Siri,目標 iOS 26.4 全面推出

Apple 正式確認與 Google 合作,使用 Gemini 模型全面重建 Siri,目標搭載於即將發布的 iOS 26.4。新版 Siri 將具備螢幕感知、跨 App 整合及跨會話記憶能力,並透過 Apple 私人雲計算框架保護用戶隱私。此舉是 Apple 承認內部 AI 研發未能跟上前沿水準的重要信號。

Apple 於 2026 年 3 月 26 日正式確認,新一代 Siri 將以 Google Gemini 模型為核心驅動力,目標隨 iOS 26.4 正式推出。這是蘋果與競爭對手 Google 迄今最深度的技術合作,也是 AI 領域最出人意料的跨界合作之一。

新版 Siri 的核心能力

螢幕感知(On-Screen Awareness)

新版 Siri 最重要的能力升級是對當前螢幕內容的理解與操作:

  • 理解用戶正在查看的頁面、文件、圖片或應用界面
  • 根據螢幕內容執行相關操作,無需用戶逐步描述
  • 例如:「把這封郵件的地址加到我的行事曆活動」、「用截圖中的菜單幫我點外賣」

跨 App 深度整合

  • 跨 App 執行複雜任務,不再局限於單一應用
  • 與 Apple 第三方 App 生態深度整合,開發者可通過 API 授權 Siri 訪問
  • 支援鏈式任務:從閱讀郵件 → 創建事件 → 發送邀請,一句指令完成

跨會話記憶

  • 在不同對話中保留用戶偏好與歷史上下文
  • 個人化程度大幅提升,不再每次都需要重新說明背景

隱私架構:私人雲計算

Apple 強調,儘管採用 Google 的 Gemini 模型,用戶的敏感查詢不會直接傳送至 Google 服務器。Apple 的**私人雲計算(Private Cloud Compute)**框架確保:

  • 敏感請求在 Apple 自建的隔離雲端環境中處理
  • Apple 服務器無法記錄或保留用戶的查詢內容
  • Google 僅提供模型能力,無法訪問 Apple 用戶數據

為何選擇 Google,而非 OpenAI 或自建?

根據消息人士透露,Apple 內部評估後選擇 Gemini 的主要原因:

  1. 多模態與端側效率:Gemini 3.1 Pro 在視覺理解及硬件效率上最符合 Apple Silicon 的架構需求
  2. 私有雲兼容性:Google 的模型架構最易適配 Apple 私人雲計算框架的隔離設計
  3. 速度壓力:Apple 需要在 WWDC 2026 前展示全面升級的 AI 能力,自研時程無法保證

行業影響

對 Google:Gemini 模型現在將搭載於全球最具影響力的消費硬件平台,日活用戶規模超過任何單一 AI 應用。

對 Apple:此舉被分析師解讀為 Apple 罕見地承認自身 AI 研發的局限,優先以合作確保用戶體驗,而非堅持自研技術主權。

對競爭格局:OpenAI 的 ChatGPT 與 Apple Intelligence 的整合被進一步邊緣化,Gemini 成為 Siri 的主力引擎。

返回首頁