iPhone X 的前置 TrueDepth 傳感系統讓手機可實現臉部解鎖,還實現對面部表情的實時跟蹤和識別,生成 Animojis。但顯然,這只是蘋果的第一步。如果把蘋果手機后置攝像頭也加入 3D 傳感系統,又會產生什么樣的效果呢?
升級 iOS 11 系統后,蘋果手機可下載 AR 應用,這主要通過蘋果后置單目攝像頭實現。如果加入后置 3D 傳感系統可讓 AR 功能更為強大,例如使 AR 虛擬形象與真實環(huán)境中的物體,進行更多地交互。3D 傳感系統可檢測深度信息,構建三維地圖,而現在,蘋果 AR 應用只能檢測到一個平面。同樣的,后置 3D 傳感系統還能為 AR 眼鏡奠定技術基礎。
不過,有意思的是,根據彭博社報道,蘋果正在研發(fā)后置 3D 傳感系統采用的技術路徑,跟前置的 TrueDepth 系統并不一樣。
此前曾報道,TrueDepth 采用結構光技術,將 30000 個激光點圖案投射到用戶的臉上,并測量失真以生成用于認證的精確 3D 圖像。這種技術原本由以色列公司 PrimeSense 研發(fā),后在 2013 年被蘋果收購。PrimeSense 曾基于結構光技術為微軟研發(fā) Kinect 傳感系統。
但據了解,蘋果正在研發(fā)的 3D 后置傳感系統將使用飛行時間法 3D 成像(Time of Flight,ToF),這種方法更難以實現。其主要是通過激光掃面物體表面,傳感系統會測量激光到達物體和返回的時間。
ToF 原理
在上述圖中,我們能看到,ToF 關鍵是傳感器要測量物體的距離。
ToF 多被應用到 LIDAR (雷達)中,其主要的不足在于,它每次只能測量激光到達一個特定點的距離。所以,大部分雷達系統采用機械掃描裝置。雷達系統目前多被用于自動駕駛領域。但體型通常較大,會被放置在汽車的頂部。
顯而易見,這對手機并不適用。目前還有一種新型的雷達稱之為 Flash LIDAR。它使用特殊的攝像頭,可測量對每個像素實現飛行時間測量。但 Flash LIDAR 還在研發(fā)中,同時也遇到了一些挑戰(zhàn)。因為每個像素需要得到自己的飛行時間測量,其中包括觸發(fā)電路、脈沖檢測電路。這便與 TrueDepth 產生了一定的沖突。
盡管 Flash LIDAR 的問題在逐步解決,但如傳感器的分辨率可能相當低,接近于 VGA 分辨率。
另外的問題是,提供適當的脈沖激光照明。光以每納秒約一英尺的速度傳播,而多數 LIDAR 和 Flash LIDAR 系統光脈沖時間非常短,只有 1-2 納秒。所以,在一定的時間內,生成足夠密度的光脈沖,被 Flash LIDAR 檢測到,也具有一定的挑戰(zhàn)。
蘋果已經確定在研發(fā) ToF,但是否最終會用到手機上,還不一定。結構光非常適合用于房間大小的空間內,這也是為什么 Kinect 和 HoloLens 也會使用結構光的方案。
對比兩種方案的話,ToF 的精準度和穩(wěn)定性較好,但結構光可以做的更小、功耗也小,分辨率相對高。
覺得,蘋果也許在嘗試不同的解決方案,融入到手機中必定有很大的挑戰(zhàn),我們期待后置 3D 傳感器能讓 AR 功能更強大。