最新消息指出,Apple 打算在今年 6 月的 WWDC 上,推出全新的「Core AI」框架,取代過去使用多年的 Core ML。這不只是換個名字而已,而是蘋果在 AI 發展方向上的一次明顯調整,也預告 iOS 27 將迎來更深層的 AI 架構革新。

由彭博社記者 Mark Gurman 最新報導指出,蘋果正替 iOS 27 規劃一系列以軟體為核心的 AI 升級方案,其中最關鍵的就是這個全新的 Core AI 架構,將取代現有 Core ML,最快可能會在 WWDC 2026 大會上發表。
蘋果 Core AI vs Core ML 差異比較
過去幾年,蘋果強調的是「Machine Learning(機器學習)」,也就是透過資料訓練模型,讓裝置變得更聰明。但這兩年,整個科技圈的焦點早已轉向更廣義的「AI」,尤其是生成式 AI、大型語言模型等技術快速發展。
簡單來說,「ML」聽起來比較像是工程術語;「AI」則是現在大家更熟悉、也更有感的說法,這次從 Core ML 改名為 Core AI,某種程度上就是跟上產業語言與技術趨勢。
Gurman認為,這次從 Core ML 到 Core AI 的轉型,不只是名稱更新,而是技術定位的升級,從單一學習模型工具,邁向更全面的人工智慧整合平台。

Core AI 對開發者有什麼差別?
Core AI 的主要任務,依然是幫助開發者把 AI 模型整合進自己的 App,只是方式可能會更完整、工具更齊全,如果這次更新真的如預期進行,開發者未來在做 AI 功能時,新框架能帶來底下幾項功能提升:
- 原生支援多元 AI 模型
- 降低整合第三方模型的技術門檻
- 提供更完善的開發工具鏈
- 強化裝置端與雲端 AI 協作能力
代表未來開發者在導入 AI 功能時,或許不再需要高度仰賴外部 SDK 或自行打造基礎架構,而能透過蘋果原生框架完成更完整的整合,到時蘋果生態系的 AI 應用密度,勢必將明顯提升。

Core AI 對普通用戶有什麼差異?
如果 Core AI 成為系統的底層架構,那麼未來 iPhone、iPad 或 Mac 上的功能,可能會變得更懂你在做什麼、更能理解上下文,也更即時回應需求。
大家最有感的應該會是語音助理的升級,外界預期蘋果會在 iOS 26.5 強化 Siri,並結合 Google 的 Gemini 模型技術,讓回應能力更接近當前主流 AI 助理,目前 iOS 26.4 還在測試階段,因此距離 26.5 測試版推出,可能還要再等一段時間。
想了解更多Apple資訊、iPhone教學和3C資訊技巧,歡迎追蹤 瘋先生FB粉絲團、 訂閱瘋先生Google新聞、 Telegram、 Instagram以及 訂閱瘋先生YouTube。