蘋果在 2020 年首波新品中,率先替新款 iPad Pro 加入雙鏡頭與全新 LiDAR (光學雷達掃描儀),在外型依舊延續採用前一代外觀和螢幕,處理器A12Z 也僅針對 GPU 提升,反而不少人被新款巧控鍵盤給吸引住,從裡面也讓我們看見蘋果對於 iPad Pro 定位與未來方向有了重大改變,iPad Pro 將會是第一款拓展AR擴增實境設備。
幾乎每一代蘋果產品都會有個最亮眼功能,今年 2020 款 iPad Pro 最重要和主打功能就是「LiDAR」,也許這塊鏡頭模組就像是 iPhone 11 Pro 造型,蘋果在多年 AR 佈局後,在 2019 年 WWDC 上替 ARKit 更新至 3.5 ,今年先是替 iPad Pro 加入 ToF(Time of Flight , 飛時測距),隨後 iPhone 12 Pro 系列也會加入,軟硬體都到位後,那麼相信 AR 領域方向也就從今年開始拓展。
兩大陣營 ToF 差異性
我們所知道蘋果不會貿然使用一個不成熟技術,也許有人會認為安卓手機早已經有 ToF 相機,蘋果到現在才加入,也許又會被不少人認為那有什麼好得意?
到現在安卓陣營多數還無法確定未來發展,甚至小米集團副總裁兼紅米品牌經理盧偉冰認為:「ToF小米技術預研早就ready認為是個噱頭、沒啥用,騙用戶瞎花錢。」,但榮耀產品副總裁熊軍民反駁認為:「這是你解決不了問題,也不能認為別人也沒能力,一個公司可以沒有自己的技術,做整合也不可恥,但是要指責別人的努力和進展,變成反技術公司就不太合適。」
實際上小米是因為ToF傳感器分辨率低、功耗大、不成熟最終導致無法量產;連同 Google Tango 系列也早已經加入結構光(Structured light)和ToF技術用於 AR 功能,不過因為體驗不佳和生態過早,最後表現不佳。
然而其實 Google 陣營手機與 Apple 手機所用的 ToF 模組也不太ㄧ樣,Android 多數都是採用iToF 模組,而 iPad Pro 這次搭載的是 dToF 模組,兩者差異可透過下方表格了解:
iToF vs dToF模組 | ||
模組 | iToF indirect time of flight |
dToF direct time of flight |
原理 | 間接飛行時間法 | 直接飛行時間法 |
優勢 | 原理簡單 系統設計難度低 |
速度快功耗低 抗干擾能力強(光源) 無需模數轉換 時間採樣在皮秒、納秒級 |
缺點 | 精準度與解析度低 精準度會隨距離明顯下降 功耗隨距離會明顯增加 容易受到外部光源干擾 模擬電路價格 標定相對複雜 |
晶片和系統設計難度高 |
如今在三星、華為、OPPO、榮耀、vivi廠商也都替Android 手機加入 ToF 鏡頭,但目前面臨最大的問題解析度低、功耗高、容易受干擾,多數只用於人臉特效、美顏、散景和暗部對焦,在3D 建模和 AR 功能則是還沒有廣泛被利用,也不太明顯,最主要是因為 Google ARCore 發展比較緩慢、硬體需求高,最後造成大家各自研發,對於一般用戶沒有高度使用需求,比起 Apple ARKit 差異極大。
iPad Pro 搭載 LiDAR 開啟 AR 大門
在蘋果替推出 2020款 iPad Pro後,可能感受不出來有明顯改進,鏡頭額外加上一顆超廣角鏡,雙鏡頭規格其實就與 iPhone 11 完全類似,處理器升級至A12Z反而被認為是在擠牙膏,導致這次升級確實不明顯,導致受到普通用戶重點變成巧控鍵盤設計上。
如今蘋果不管是在新聞稿或是官網 iPad Pro 介紹,在 LiDAR 功能介紹就佔了不少頁面,開頭更寫著「它的專業級相機,可轉變真實世界的實境。」暗示將透過鏡頭實現 AR 實境,那麼可以確定 AR虛擬實境是未來幾年最重要的發展方向。
比較令人感到興奮的是今年開始有大動作,從 WWDC 2019 發表會上公布 ARKit 升級後,率先替 iPad Pro 新加入一顆全新 ToF 模組,並稱之為「LiDAR(光學雷達)」,不論在室內或室外,都能利用直線飛行時間,來測量最遠達 5 公尺的光線反射,替 AR 擴增實境帶來更不一樣體驗,整體在軟硬體都全到位後,那麼 AR 也將會全速發展。
不過LiDAR到現在可能大家還有點模糊,不太懂這玩意到底是怎麼運做,底下告訴大家:
可以將 ToF 視為蝙蝠,能夠在一個看不見的環境中,利用超音波回聲偵測環境和獵物,其實原理就像是 LiDAR 技術。
但是 ToF 並不是透過超音波,而是利用光線射出後計算反射時間,我們知道光線射出到不同物體上,深度都會不同,回來的時間也就會不一樣,這樣就可以準確得知深度,當然蘋果的 LiDAR 比起安卓dToF 相機更為複雜和先進技術,相對在深度上就會獲得更準確資訊。
蘋果還特別強調光學雷達掃描儀可以光子等級運作,以奈秒(1秒的10億分之1)的速度從光子層運行掃描,甚至被 NASA 運用在接下來火星登陸任務上,意思為即時測距系統已經設計到非常完善。
AR到底能用在哪些地方?
那麼 LiDAR 真的可以改善 AR 體驗嗎?或許大家可以透過 iPhone 玩看看現有內建的 AR 應用「測距儀」App,如果有使用過會發現到,在量測空間、家具等物體的長寬高數值時,會發現有時候定位的線會跑掉,那在搭載 LiDAR 掃描儀後,就不會出現這類情況。
主要是因為 LiDAR(光學雷達掃描儀)與鏡頭、動作感測是和 iPadOS 架構同時實現軟硬體運算,能夠快速測量深度,如畫面有人遮住或動作時,就不會導致人與背景之間出現明顯白邊或馬賽克情況,AR體驗效果就會更加明顯。
同時蘋果也已經預告「測距儀」App 還會加入「尺標顯示方式」,可進行更精細的測量,並可讓使用者儲存所有測量的列表並搭配截圖,以供日後使用。
蘋果已經在 AR 深耕多年,甚至還特別規劃一個獨立頁面來介紹AR(擴增實境),在官方提到一句話:「擴增實境 (AR) 是一種運用科技的全新方式,改變你工作、學習、遊戲以及與周圍一切聯繫的方式。而這,還只是個開端。一個全新世界,歡迎你加入。」
看完這句話,非常確定蘋果已經定下 AR 領域發展方向,將會運用於「工作、學習、遊戲、生活」四個層面上,並不像是 Android 只是單純用來美肌讓人感覺摸不著前方的路。
看完以上官方影片後,可以讓我們清楚 AR 非常適合應用於室內設計,影片中更展示透過《Shapr3D》測量深度技術,可以將畫面拍攝起來後立即轉成3D場景模型,大量減少建模時間也能依照客戶要求做及時修改。
甚至還可以透過《IKEA Place》先挑選傢俱,可以藉由 AR 來擺放合適的沙發、桌子、地毯、檯燈等,能避免買錯家具。
在遊戲運用上,也是能夠讓遊戲場景與實際場景疊合,讓畫面看起來就更逼真,在這部分則是可以看見《Hot Lava》遊戲可以將熱岩漿與真實場景進一步結合,就感覺真實環境有熱岩漿。
iPad Pro 和 iPhone 先開路, AR 眼鏡隨後就到
也許 iPad Pro 早該在去年就推出,不過被延遲到了今年才發表,至於延遲原因不太確定是什麼造成,但蘋果為什麼會選擇 iPad Pro 當成首款 LiDAR 機種?
根據瘋先生的理解, iPad Pro 運算、GPU速度非常適合用來生產/測試 AR 應用工具,也就是這款產品是目前讓開發者研發 AR 最佳產品,畢竟目前 AR 市場最需要的就是要有大量的廠商投入開發應用和遊戲。
接下來下半年 iPhone 12 Pro 系列也在 iOS 14 代碼中,被證實會搭載 LiDAR 掃描儀,從這些步調來看, iPad Pro 和 iPhone 12 Pro 算 AR 開路先鋒,據傳蘋果也已經佈局好未來三年新品,將於 2021 年至 2022 年也將會推AR 穿戴式頭盔,直到 2023 年才會額外推出一款輕型 AR 眼鏡。
實際上看起來也非常合理,畢竟這顆 LiDAR 掃描儀直接嵌入至頭盔和眼鏡內,運算則是由 iPhone 處理,搭配 AirPods 當成耳機,即可夠讓用戶不需要透過iPad 或 iPhone 螢幕,藉由眼睛看見虛擬實境世界,精準判斷周圍3D深度、精準計算畫面、物體位置,更能打造完整 AR 體驗。
那麼你覺得哪個新技術能夠改變現在手機產業?是以彎曲螢幕嗎?還是AR眼鏡會比較有機會?
兩年~三年後,如果再回來看這篇與這句「你的下一部電腦,非電腦。」和「它的專業級相機,可轉變真實世界的實境。」相信會更有感。
喜歡這篇文章教學,後續想了解更多Apple資訊、iPhone、Mac、3C隱藏技巧,歡迎追蹤 瘋先生FB粉絲團、瘋先生LINE@、訂閱瘋先生Google新聞、Telegram、Instagram以及 訂閱YouTube頻道,將會有更多非常實用的技巧教學分享給大家。