蘋果透過 LiDAR 開啟「擴增實境」領域大門,AR眼鏡隨後就到

蘋果在 2020 年首波新品中,率先替新款 iPad Pro 加入雙鏡頭與全新 LiDAR (光學雷達掃描儀),在外型依舊延續採用前一代外觀和螢幕,處理器A12Z 也僅針對 GPU 提升,反而不少人被新款巧控鍵盤給吸引住,從裡面也讓我們看見蘋果對於 iPad Pro 定位與未來方向有了重大改變,iPad Pro 將會是第一款拓展AR擴增實境設備。

蘋果透過 LiDAR 開啟「擴增實境」領域大門,AR眼鏡隨後就到

 

幾乎每一代蘋果產品都會有個最亮眼功能,今年 2020 款 iPad Pro 最重要和主打功能就是「LiDAR」,也許這塊鏡頭模組就像是 iPhone 11 Pro 造型,蘋果在多年 AR 佈局後,在 2019 年 WWDC 上替 ARKit 更新至 3.5 ,今年先是替 iPad Pro 加入 ToF(Time of Flight , 飛時測距),隨後 iPhone 12 Pro 系列也會加入,軟硬體都到位後,那麼相信 AR 領域方向也就從今年開始拓展。

wwdc 2019 Minecraft Earth

 

兩大陣營 ToF 差異性

我們所知道蘋果不會貿然使用一個不成熟技術,也許有人會認為安卓手機早已經有 ToF 相機,蘋果到現在才加入,也許又會被不少人認為那有什麼好得意?

到現在安卓陣營多數還無法確定未來發展,甚至小米集團副總裁兼紅米品牌經理盧偉冰認為:「ToF小米技術預研早就ready認為是個噱頭、沒啥用,騙用戶瞎花錢。」,但榮耀產品副總裁熊軍民反駁認為:「這是你解決不了問題,也不能認為別人也沒能力,一個公司可以沒有自己的技術,做整合也不可恥,但是要指責別人的努力和進展,變成反技術公司就不太合適。」

實際上小米是因為ToF傳感器分辨率低、功耗大、不成熟最終導致無法量產;連同 Google Tango 系列也早已經加入結構光(Structured light)和ToF技術用於 AR 功能,不過因為體驗不佳和生態過早,最後表現不佳。

然而其實 Google 陣營手機與 Apple 手機所用的 ToF 模組也不太ㄧ樣,Android 多數都是採用iToF 模組,而 iPad Pro 這次搭載的是 dToF 模組,兩者差異可透過下方表格了解:

iToF vs dToF模組
模組 iToF
indirect time of flight
dToF
direct time of flight
原理 間接飛行時間法 直接飛行時間法
優勢 原理簡單
系統設計難度低
速度快功耗低
抗干擾能力強(光源)
無需模數轉換
時間採樣在皮秒、納秒級
缺點 精準度與解析度低
精準度會隨距離明顯下降
功耗隨距離會明顯增加
容易受到外部光源干擾
模擬電路價格
標定相對複雜
晶片和系統設計難度高

 

如今在三星、華為、OPPO、榮耀、vivi廠商也都替Android 手機加入 ToF 鏡頭,但目前面臨最大的問題解析度低、功耗高、容易受干擾,多數只用於人臉特效、美顏、散景和暗部對焦,在3D 建模和 AR 功能則是還沒有廣泛被利用,也不太明顯,最主要是因為 Google ARCore 發展比較緩慢、硬體需求高,最後造成大家各自研發,對於一般用戶沒有高度使用需求,比起 Apple ARKit 差異極大。

 

iPad Pro 搭載 LiDAR 開啟 AR 大門

在蘋果替推出 2020款 iPad Pro後,可能感受不出來有明顯改進,鏡頭額外加上一顆超廣角鏡,雙鏡頭規格其實就與 iPhone 11 完全類似,處理器升級至A12Z反而被認為是在擠牙膏,導致這次升級確實不明顯,導致受到普通用戶重點變成巧控鍵盤設計上。

iPad Pro 搭載 LiDAR 開啟 AR 大門

如今蘋果不管是在新聞稿或是官網 iPad Pro 介紹,在 LiDAR 功能介紹就佔了不少頁面,開頭更寫著「它的專業級相機,可轉變真實世界的實境。」暗示將透過鏡頭實現 AR 實境,那麼可以確定 AR虛擬實境是未來幾年最重要的發展方向。

比較令人感到興奮的是今年開始有大動作,從 WWDC 2019 發表會上公布 ARKit 升級後,率先替 iPad Pro 新加入一顆全新 ToF 模組,並稱之為「LiDAR(光學雷達)」,不論在室內或室外,都能利用直線飛行時間,來測量最遠達 5 公尺的光線反射,替 AR 擴增實境帶來更不一樣體驗,整體在軟硬體都全到位後,那麼 AR 也將會全速發展。

iPad Pro 搭載 LiDAR 開啟 AR 大門1

不過LiDAR到現在可能大家還有點模糊,不太懂這玩意到底是怎麼運做,底下告訴大家:

可以將 ToF 視為蝙蝠,能夠在一個看不見的環境中,利用超音波回聲偵測環境和獵物,其實原理就像是 LiDAR 技術。

但是 ToF 並不是透過超音波,而是利用光線射出後計算反射時間,我們知道光線射出到不同物體上,深度都會不同,回來的時間也就會不一樣,這樣就可以準確得知深度,當然蘋果的 LiDAR 比起安卓dToF 相機更為複雜和先進技術,相對在深度上就會獲得更準確資訊。

蘋果還特別強調光學雷達掃描儀可以光子等級運作,以奈秒(1秒的10億分之1)的速度從光子層運行掃描,甚至被 NASA 運用在接下來火星登陸任務上,意思為即時測距系統已經設計到非常完善。

 

AR到底能用在哪些地方?

那麼 LiDAR 真的可以改善 AR 體驗嗎?或許大家可以透過 iPhone 玩看看現有內建的 AR 應用「測距儀」App,如果有使用過會發現到,在量測空間、家具等物體的長寬高數值時,會發現有時候定位的線會跑掉,那在搭載 LiDAR 掃描儀後,就不會出現這類情況。

主要是因為 LiDAR(光學雷達掃描儀)與鏡頭、動作感測是和 iPadOS 架構同時實現軟硬體運算,能夠快速測量深度,如畫面有人遮住或動作時,就不會導致人與背景之間出現明顯白邊或馬賽克情況,AR體驗效果就會更加明顯。

同時蘋果也已經預告「測距儀」App 還會加入「尺標顯示方式」,可進行更精細的測量,並可讓使用者儲存所有測量的列表並搭配截圖,以供日後使用。

2020款iPad Pro正式登場:雙鏡頭、A12Z處理器、觸控式軌跡板

蘋果已經在 AR 深耕多年,甚至還特別規劃一個獨立頁面來介紹AR(擴增實境),在官方提到一句話:「擴增實境 (AR) 是一種運用科技的全新方式,改變你工作、學習、遊戲以及與周圍一切聯繫的方式。而這,還只是個開端。一個全新世界,歡迎你加入。」

看完這句話,非常確定蘋果已經定下 AR 領域發展方向,將會運用於「工作、學習、遊戲、生活」四個層面上,並不像是 Android 只是單純用來美肌讓人感覺摸不著前方的路。


看完以上官方影片後,可以讓我們清楚 AR 非常適合應用於室內設計,影片中更展示透過《Shapr3D》測量深度技術,可以將畫面拍攝起來後立即轉成3D場景模型,大量減少建模時間也能依照客戶要求做及時修改。

甚至還可以透過《IKEA Place》先挑選傢俱,可以藉由 AR 來擺放合適的沙發、桌子、地毯、檯燈等,能避免買錯家具。

在遊戲運用上,也是能夠讓遊戲場景與實際場景疊合,讓畫面看起來就更逼真,在這部分則是可以看見《Hot Lava》遊戲可以將熱岩漿與真實場景進一步結合,就感覺真實環境有熱岩漿。

 

iPad Pro 和 iPhone 先開路, AR 眼鏡隨後就到

也許 iPad Pro 早該在去年就推出,不過被延遲到了今年才發表,至於延遲原因不太確定是什麼造成,但蘋果為什麼會選擇 iPad Pro 當成首款 LiDAR 機種?

根據瘋先生的理解, iPad Pro 運算、GPU速度非常適合用來生產/測試 AR 應用工具,也就是這款產品是目前讓開發者研發 AR 最佳產品,畢竟目前 AR 市場最需要的就是要有大量的廠商投入開發應用和遊戲。

接下來下半年 iPhone 12 Pro 系列也在 iOS 14 代碼中,被證實會搭載 LiDAR 掃描儀,從這些步調來看, iPad Pro 和 iPhone 12 Pro 算 AR 開路先鋒,據傳蘋果也已經佈局好未來三年新品,將於 2021 年至 2022 年也將會推AR 穿戴式頭盔,直到 2023 年才會額外推出一款輕型 AR 眼鏡。

xcode 11 stereo ar

實際上看起來也非常合理,畢竟這顆 LiDAR 掃描儀直接嵌入至頭盔和眼鏡內,運算則是由 iPhone 處理,搭配 AirPods 當成耳機,即可夠讓用戶不需要透過iPad 或 iPhone 螢幕,藉由眼睛看見虛擬實境世界,精準判斷周圍3D深度、精準計算畫面、物體位置,更能打造完整 AR 體驗。

那麼你覺得哪個新技術能夠改變現在手機產業?是以彎曲螢幕嗎?還是AR眼鏡會比較有機會?

兩年~三年後,如果再回來看這篇與這句「你的下一部電腦,非電腦。」和「它的專業級相機,可轉變真實世界的實境。」相信會更有感。

喜歡這篇文章教學,後續想了解更多Apple資訊、iPhone、Mac、3C隱藏技巧,歡迎追蹤 瘋先生FB粉絲團瘋先生LINE@訂閱瘋先生Google新聞TelegramInstagram以及 訂閱YouTube頻道,將會有更多非常實用的技巧教學分享給大家。

返回頂端
Share to...