蘋果與 Google 的 AI 合作關係再度浮上檯面,根據《彭博社》記者 Mark Gurman 最新報導,蘋果已接近敲定與 Google 的重大協議,計畫採用 Gemini 人工智慧模型,為即將在 2026 年春季登場的全新 Siri 提供技術支援,將大量導入 Google 的 Gemini 大型語言模型(LLM),以補強蘋果自家 AI 能力的不足。

蘋果導入1.2 兆參數 Gemini 模型,遠超蘋果自研規模
據彭博社報導,蘋果已經與 Google 達成合作案,預估斥資每年約規模10億美元買入 Gemini 人工智慧模型完整使用權,並採客製化的 Gemini AI 模型強化 Siri,背後的推手並非 AI 模型表現,而是價格優勢促成了蘋果最終選擇。
蘋果將在旗下的 Private Cloud Compute 雲端伺服器上運行一套由經 Google 客製化的 Gemini 模型,該 AI 模組擁有高達 1.2 兆參數,將作為新版 Siri 背後的核心技術,主要能協助處理用戶語音請求,並支援更深入的個人化功能,例如透過裝置詢問「幫我找媽媽推薦的書」這類問題,將會以動態生成回應貼近使用者需求。

相比之下,蘋果目前自研的雲端模型僅有 1500 億參數,裝置端模型更只有 30 億參數,兩者與 Gemini 之間的差距明顯。
這項蘋果與 Google 合作代表 Siri 架構將會迎來一次重建,也能補足蘋果當前在大型語言模型研發上的落後現況。
揭開 Apple Intelligence Siri 三大核心架構
值得注意的是,這次 Google 與蘋果合作,與過去 OpenAI 配合模式完全不同,先前蘋果僅考慮將 Gemini 作為 Siri 的知識來源之一,最終未能具體成案,但如今 Gemini 的角色,已經從附屬知識來源,升級為 Siri 核心處理架構的重要支柱。
根據知情人士透露,新一代 Apple Intelligence Siri 架構將由三大核心模組組成,包含查詢規劃器、知識搜尋系統與摘要生成器,內部代號為 Glenwood 的專案,由蘋果現任 Siri 領導人 Mike Rockwell 主導,其任命則是源於公司先前 AI 部門的人事重整。
其中 Google Gemini 模型僅負責 Siri 的「查詢規劃器」與「摘要生成器」兩大核心模組,將處理負責語意理解、任務規劃與資訊整合功能,至於其他個人化與裝置端處理部分,則仍由蘋果自家 Foundation Models 支援。

對於外界普遍關注的隱私議題相比,本次合作也維持蘋果一貫標準,Gemini 模型將在蘋果的 Private Cloud Compute 雲端架構內執行,不會有用戶資料和對話外流至 Google 伺服器的疑慮。
Gemini 並非長期解方,蘋果仍積極自研 AI 模型
儘管此次雙方合作算是相當大規模,報導指出,蘋果內部並未將 Gemini 視為長期依賴對象,高層仍有意自主開發能與 Gemini 匹敵的 AI 系統。
儘管近年蘋果 AI 團隊遭遇核心人才流失,包括 AI 模型主管的離職,蘋果仍持續投入資源開發一款自家雲端模型,目標參數達 1 兆,並期望最早於 2026 年內部署應用。
根據先前蘋果執行長庫克對外公開時程規劃,全新 Apple Intelligence Siri 計畫在 2026 年 3 月或 4 月 隨 iOS 26.4 正式亮相,並同步導入蘋果即將推出的智慧家庭顯示裝置,打造更完整的個人化 AI 語音助理生態系。
參考來源:Bloomberg
想了解更多Apple資訊、iPhone教學和3C資訊技巧,歡迎追蹤 瘋先生FB粉絲團、 訂閱瘋先生Google新聞、 Telegram、 Instagram以及 訂閱瘋先生YouTube。