Apple 穿戴式 AI 大轉向:智能眼鏡、胸前吊墜、攝影 AirPods 構建後 iPhone 時代戰略
當科技巨頭競相砸下千億美元建設 AI 基礎設施時,Apple 選擇了截然不同的路徑——將 AI 嵌入你的身體周圍,而非鎖在數據中心裡
當科技巨頭競相砸下千億美元建設 AI 基礎設施時,Apple 選擇了截然不同的路徑——將 AI 嵌入你的身體周圍,而非鎖在數據中心裡
在 AI 產業進入狂熱的資本支出競賽之際,Apple 正在悄然部署一場截然不同的棋局。根據近期多方消息匯總,Apple 同時加速推進三款穿戴式 AI 設備的研發——智能眼鏡、可夾在衣領或胸前的 AI 吊墜(pendant),以及內建攝像頭的新一代 AirPods。這三款產品均圍繞 Visual Intelligence 視覺智能引擎和全面改造後的 Siri 構建,標誌着 Apple 正式將其 AI 戰略重心從手機螢幕轉移到人體周圍的「環境運算」(ambient computing)層面。
這不僅僅是幾款新硬件的問世。從 AI 部門領導層的更替、價值約 20 億美元的 Q.ai 收購、到選擇採用 Google Gemini 重塑 Siri,Apple 的每一步棋都在傳遞同一個訊號:它不打算在 AI 基礎設施的軍備競賽中與 Microsoft、Google 和 Meta 正面交鋒,而是要在 AI 的「最後一公里」——即 AI 如何融入人類日常生活的體驗層——建立不可逾越的護城河。
要理解 Apple 這三款穿戴式 AI 設備的戰略意義,首先需要理解它們背後共同的設計哲學。傳統的 AI 產品範式——無論是 ChatGPT 的對話介面還是 Google Search 的搜索框——本質上是「召喚式」的:用戶必須主動打開應用、輸入指令,才能獲得 AI 的幫助。Apple 正在押注的則是「環境式 AI」(ambient AI),即 AI 持續感知用戶周圍的環境,在合適的時機以不打擾的方式提供智能輔助,無需用戶掏出手機或發出明確指令。
Apple 的智能眼鏡被業界視為 Vision Pro 技術棧的輕量化延伸。與 Vision Pro 追求沉浸式空間運算不同,Apple 智能眼鏡的設計理念更接近「為雙眼添加一層 AI 濾鏡」。眼鏡將搭載微型攝像頭和顯示模組,透過 Visual Intelligence 引擎即時識別用戶視野中的物體、文字、場景和人物,並在鏡片上以輕量抬頭顯示(HUD)的形式呈現相關資訊。
舉例而言,當你走進一間陌生的餐廳,眼鏡可以自動識別菜單上的外語文字並即時翻譯;當你在超市購物時,它可以辨識產品標籤並與你的健康檔案交叉比對,提醒你某些成分可能引發過敏。這些功能的核心價值在於「無摩擦」——用戶不需要掏出手機、打開相機、對準目標、等待處理,一切都在自然的視覺流程中無縫完成。
可夾在衣領或胸前的 AI 吊墜,是三款設備中概念最為新穎的一款。它本質上是一個永遠在線的 Siri 入口——配備麥克風和揚聲器,但刻意省略了螢幕。吊墜持續聆聽環境音,當用戶自然地說出「Hey Siri」或使用預設的觸發手勢時,它會調用改造後的 Siri 進行語音互動。更值得注意的是,結合 Apple 收購 Q.ai 所獲得的靜默語音辨識技術(稍後詳述),這款吊墜未來甚至可能讀取用戶面部微小肌肉運動來理解「無聲指令」,實現真正的靜默人機交互。
這款設備的產品定位明顯是針對 Humane AI Pin 和 Rabbit R1 等先行者失敗後留下的市場空白。那些產品的失敗並非因為「穿戴式 AI 助手」的概念有問題,而是因為它們缺乏足夠強大的 AI 後端、缺乏生態系統支撐,且定價過高。Apple 擁有超過 20 億台活躍設備的生態系統和即將完成改造的 Siri,有可能在同一個概念上做到前人做不到的事。
內建攝像頭的 AirPods 乍聽之下匪夷所思,但仔細思考後,其邏輯相當清晰。AirPods 已經是全球最普及的穿戴設備之一——全球活躍使用量估計超過 3 億副。在這個既有的龐大裝機量基礎上添加攝像頭模組,意味着 Apple 可以在幾乎不改變用戶使用習慣的情況下,將 Visual Intelligence 的能力延伸到數億人的日常生活中。
攝像頭 AirPods 的使用場景可能包括:在通話時讓 AI 看到你正在看的東西並提供即時建議、在旅途中自動辨識路標和指示牌、或者在購物時即時比價。與智能眼鏡相比,AirPods 的優勢在於其社交接受度更高——在公共場所佩戴 AirPods 是完全正常的行為,不會像智能眼鏡那樣引發隱私顧慮或社交尷尬。
Apple 的穿戴式 AI 佈局背後,是一次意味深長的領導層調整。長期主導 Apple AI 戰略的 John Giannandrea 已退休離任,接替他的是 Mike Rockwell——此前負責 Vision Pro 和整個 AR/VR 平台的硬體產品主管。
這一人事變動傳達的訊號非常清晰。Giannandrea 是一位典型的 AI 研究型領導者,在 Google 期間主導過搜索排名算法和 Google Brain 等基礎研究項目。但 Apple 目前面臨的挑戰不是 AI 基礎研究不足——而是如何將 AI 能力轉化為消費者願意使用、甚至離不開的產品體驗。Rockwell 在 Vision Pro 項目中展現的跨部門協調能力和硬軟體整合經驗,正是 Apple 推進穿戴式 AI 設備所需要的執行力。
更深層地看,讓 Vision Pro 的負責人來主導 AI 戰略,本身就說明 Apple 已經將 AI 的未來與空間運算和穿戴式計算緊密綁定。這不是兩條平行的產品線,而是同一個戰略願景的不同面向:AI 必須走出螢幕,融入人類的感知世界。
Apple 以約 20 億美元收購 Q.ai,是其有史以來第二大規模的收購案,僅次於 2014 年以 30 億美元收購 Beats。Q.ai 的核心技術是透過紅外線感測器捕捉人臉微小肌肉運動,解讀用戶「無聲說出」的語言——即所謂的靜默語音辨識(silent speech interpretation)。
這項技術的戰略意義需要放在穿戴式 AI 的語境下理解。當前所有語音 AI 助手——無論是 Siri、Alexa 還是 Google Assistant——都面臨同一個根本性的使用障礙:在公共場所大聲對着設備說話是一件尷尬的事。這個看似微不足道的社交摩擦,實際上嚴重限制了語音 AI 的使用頻率和場景覆蓋面。大多數人只有在獨處或在車內時才會使用語音助手。
Q.ai 的靜默語音技術有可能從根本上解決這個問題。想像一下:戴着 AirPods 在擠滿人的港鐵車廂中,你只需要微微動動嘴唇(甚至不需要發出任何聲音),AI 就能理解你的指令並通過耳機低聲回覆。這不再是科幻小說的場景——紅外線面部微動感測技術已經在實驗室中被證明可行,Apple 的 20 億美元收購正是要將這項技術加速推向消費級產品。
「Apple 收購 Q.ai 的意義不在於又多了一項技術,而在於它打通了穿戴式 AI 最後也是最關鍵的一道瓶頸——如何在不發出聲音的情況下與 AI 自然溝通。這是將語音 AI 從『偶爾使用的功能』變為『時刻在線的夥伴』的關鍵拼圖。」
Apple 據報將在 2026 年春季開始採用 Google Gemini 作為 Siri 改造的底層大型語言模型,這一決策在業界引發了廣泛討論。表面上看,這像是 Apple 承認自身 AI 技術能力不足的「認輸」之舉。但深入分析後會發現,這實際上反映了 Apple 對 AI 產業一個關鍵趨勢的清醒判斷:大型語言模型正在快速商品化。
回顧過去兩年的 AI 發展,LLM 的能力曲線正在趨於收斂。GPT-4o、Claude Opus、Gemini Ultra 之間的性能差距已經從「天壤之別」縮小到了「各有千秋」。當基礎模型之間的差異越來越小時,真正的差異化競爭將轉移到模型之上的應用層——即如何將 AI 能力包裝成消費者願意為之付費的產品體驗。而這恰恰是 Apple 最擅長的事情。
Apple 在作業系統、處理器、應用商店和硬體工業設計上的深度垂直整合能力,意味着它可以在使用「通用」LLM 的同時,通過獨特的系統級整合創造出任何競爭對手都無法複製的用戶體驗。Gemini 可以處理自然語言理解和生成的「重勞力」,而 Apple 則專注於將這些能力無縫編織進 iPhone、Apple Watch、AirPods 和未來穿戴設備的日常使用流程中。
這與 Apple 過去的策略一脈相承。Apple 從未自製顯示面板(依賴 Samsung 和 LG),也未自製基頻晶片(長期依賴 Qualcomm),但這並未阻止 iPhone 成為市場上體驗最好的智能手機。Apple 的護城河從來不在於零部件的自研率,而在於系統整合的精密度。將同樣的邏輯套用到 AI 領域,「使用 Gemini 作為 LLM 引擎」就如同「使用 Samsung 的 OLED 面板」一樣,是一個完全理性的供應鏈決策。
Apple 的穿戴式 AI 戰略在資本配置上同樣呈現出與同業截然不同的取態。在 Microsoft 承諾投入 800 億美元、Meta 規劃 650 億美元、Google 和 Amazon 各自數百億美元用於 AI 數據中心建設的大背景下,Apple 明顯沒有加入這場基礎設施的瘋狂競賽。
這不是因為 Apple 缺乏資金——它擁有科技行業中最強健的資產負債表。而是因為 Apple 的 AI 戰略根本不需要大規模的數據中心擴張。通過採用 Gemini(由 Google 的基礎設施支撐)處理雲端推理任務,同時利用自研的 Apple Silicon 晶片在設備端執行盡可能多的 AI 運算,Apple 實際上是在「借用」他人的 AI 基礎設施來推進自己的產品戰略。
這一策略的財務影響已經開始顯現。Apple 在 Nasdaq 100 指數中的相關係數已跌至 0.21——這是過去二十年來的最低水平。換言之,Apple 的股價走勢正在與其他科技巨頭脫鉤。在市場對 AI 資本支出回報的質疑日益加深的當下,Apple 正逐漸成為那些擔憂「AI 泡沫」的投資者的避風港。他們的邏輯很簡單:如果 AI 基礎設施的投資最終無法帶來足夠的回報,Apple 的損失將遠小於那些在數據中心上投入天文數字的同行。
Apple 的穿戴式 AI 佈局並非在真空中發生。穿戴式 AI 設備市場正在迅速成為科技巨頭的下一個主戰場,各方都在積極卡位。
Meta 的 Ray-Ban Meta 智能眼鏡已經在市場上建立了先行者優勢。這款與 EssilorLuxottica 合作的產品,以其接近普通太陽眼鏡的外觀設計和實用的 AI 功能(即時翻譯、視覺問答、免提通話等),贏得了出乎意料的市場好評。Meta 正在快速迭代這條產品線,計劃在未來版本中加入全彩顯示和更強大的 AR 功能。
Meta 在智能眼鏡上的策略值得注意。Mark Zuckerberg 明確表示,智能眼鏡是 Meta 元宇宙願景從「虛擬現實」向「增強現實」轉型的關鍵產品。Meta 擁有 WhatsApp、Instagram 和 Facebook 等社交平台的龐大用戶基礎,一旦智能眼鏡與這些社交平台深度整合,其網絡效應將是巨大的。
Samsung 正以截然不同的方式參與這場競爭。其策略並非押注單一突破性穿戴設備,而是通過 Galaxy Ring、Galaxy Watch、Galaxy Buds 等多條既有產品線的 AI 化升級,配合 Google Gemini 的深度整合,構建一個覆蓋 8 億台設備的 AI 感知網絡。Samsung 的優勢在於其橫跨手機、平板、手錶、耳機、電視和家電的超廣產品矩陣——每一台設備都是 AI 的一個感知節點和執行端點。
在這場三方博弈中,Apple 的差異化定位越來越清晰:它要做 AI 時代的「整合者」(integrator),而非「建設者」(builder)。Meta 在建設自己的 AI 模型(Llama)和基礎設施;Samsung 在建設自己的 AI 設備矩陣和依託 Google 的模型能力;Apple 則選擇採用外部最佳的 LLM(Gemini),結合自己無可匹敵的硬軟體整合能力和用戶體驗設計功力,專注於在穿戴式設備上創造最流暢、最自然的 AI 交互體驗。
這種「整合者」策略有一個歷史先例:早期的個人電腦行業。IBM 和康柏各自建造硬體,Microsoft 提供作業系統,Intel 提供處理器——但最終獲得最大利潤份額的,是掌控了整合層和用戶體驗的公司。Apple 正在試圖在 AI 穿戴設備領域複製這一邏輯。
Apple 的穿戴式 AI 戰略所押注的,實際上是一個關於 AI 未來走向的根本性判斷:AI 與人類互動的主要模式,究竟是「聊天」還是「環境感知」?
當前 AI 行業的主流範式是「聊天機器人」——從 ChatGPT 到 Claude 到 Gemini,用戶與 AI 的互動基本上是通過文字或語音的對話完成。這種模式的優勢在於直觀、通用,且不需要額外的硬體。但其局限性也很明顯:它要求用戶主動發起互動,打斷當前的活動流程,並且將注意力集中在一個介面上。
Apple 押注的「環境式 AI」則代表另一種可能性:AI 如同空氣一般無處不在,持續感知用戶的環境和狀態,在需要時以最不打擾的方式介入,在不需要時則完全隱形。穿戴式設備是實現這一願景的物理載體——眼鏡提供視覺感知,AirPods 提供聽覺感知和低調的視覺輸入,吊墜提供語音交互的永遠在線入口。
這兩種範式之間的取捨,背後是對人類認知模式的不同理解。聊天機器人範式假設人類願意將時間花在與 AI 的對話上;環境式 AI 範式則假設人類不希望被 AI 打擾,但希望 AI 在幕後持續為其服務。Apple 歷史上最成功的產品——從 iPod 到 iPhone 到 AirPods——都遵循後一種設計哲學:技術應該融入生活,而非成為生活的中心。
「科技行業正在分裂成兩個陣營。一個陣營相信 AI 的未來是更聰明的聊天機器人;另一個陣營相信 AI 的未來是無感知的環境智能。Apple 正在以其全部的產品策略和資源配置,清晰地站到了後者一邊。這是一場豪賭——如果它賭對了,後 iPhone 時代的 Apple 可能比現在更加強大。」
Apple 的穿戴式 AI 戰略固然邏輯清晰,但其面臨的風險和挑戰同樣不容忽視。
首先是隱私爭議。穿戴式攝像設備引發的隱私顧慮遠超手機。Google Glass 在 2013 年的失敗已經證明,公眾對於被「佩戴攝像頭的人」包圍的恐懼是真實的。雖然十年間社會對穿戴科技的接受度有所提升,但 Apple 仍需在產品設計中加入清晰的攝像指示燈和嚴格的資料處理政策,以避免隱私反彈。
其次是技術成熟度。Q.ai 的靜默語音辨識技術目前仍處於早期階段,從實驗室精度到消費級產品的可靠度之間,往往存在巨大的鴻溝。如果這項核心技術在實際使用中的體驗不達標,將嚴重影響用戶對穿戴式 AI 設備的信心。
第三是對 Google 的依賴風險。將 Siri 的核心智能交給 Gemini,意味着 Apple 的 AI 體驗品質部分取決於一個競爭對手。如果 Google 決定優先向 Pixel 和三星設備提供最新的 Gemini 能力,或者在商業條款上施壓,Apple 將處於被動地位。
最後是時間窗口。Meta 的 Ray-Ban 智能眼鏡已經在市場上建立了品牌認知和用戶基礎。Samsung 的 8 億台 AI 設備矩陣正在快速成型。Apple 的穿戴式 AI 設備目前仍處於研發階段,尚未公佈具體的發售時間表。在科技行業,「太完美但太遲」和「夠好且夠早」之間,市場往往偏好後者。
香港作為全球消費電子滲透率最高的市場之一,將直接感受到穿戴式 AI 設備競爭的衝擊。本地消費者向來是 Apple 產品的忠實擁躉,但同時也以務實和嘗新著稱。當 Meta 的智能眼鏡和 Samsung 的 AI 設備矩陣率先登場,Apple 的穿戴式 AI 產品卻仍未面世時,部分消費者可能會率先投入競爭對手的生態系統。
Apple Nasdaq 100 相關係數降至 0.21 的現象,對香港的科技股投資者有重要啟示。在恒生科技指數中,投資者同樣面臨如何評估「AI 基建派」(如擁有雲計算業務的阿里巴巴、百度)和「AI 整合派」(如消費電子和應用層面的公司)之間的風險回報取捨。Apple 的案例表明,不參與 AI 軍備競賽本身也可以是一種投資吸引力。
香港獨特的城市環境——高密度、多語言、快節奏——恰好是穿戴式 AI 設備最有發揮空間的場景。即時翻譯、導航提示、公共交通信息疊加等功能,在一個每天有大量遊客和商務旅客穿行的國際都市中具有極高的實用價值。無論最終是哪家公司的產品勝出,穿戴式 AI 設備在香港市場的需求是確定的。
Apple 正在做的事情,本質上是為「後 iPhone」時代書寫新的敘事。iPhone 的年銷量已經觸及天花板,全球智能手機市場已經飽和。下一個十年的增長引擎在哪裡?Apple 的回答是:不在更聰明的手機裡,而在散佈於你身體周圍的 AI 感知網絡中——你的眼鏡、你的耳機、你衣服上的吊墜,都是這個網絡的節點。
這場豪賭的成敗取決於幾個關鍵變量:Siri 改造能否如期交付令人信服的體驗、Q.ai 的靜默語音技術能否從實驗室走向量產、穿戴式設備的電池續航和舒適度能否達到消費級標準,以及社會對穿戴式攝像設備的接受度是否已經成熟。但有一點是確定的:Apple 已經做出了選擇。在整個科技行業追逐更大的語言模型、更多的 GPU 叢集和更龐大的數據中心時,Apple 選擇了一條更安靜、但可能更深遠的道路——讓 AI 消失在你的日常生活中,成為你感知世界的隱形延伸。
這究竟是後 iPhone 時代的正確答案,還是一次代價高昂的戰略誤判,或許要到 2028 年才能見分曉。但無論結果如何,Apple 對「AI 應該如何存在」這個根本問題的獨特回答,已經為整個行業提供了一個值得深思的替代方案。