蘋果在6月的WWDC會議上發(fā)布了ARKit 4。 新的深度API使您可以訪問Li Pro上有關LiDAR掃描儀深度(LiDAR)的詳細信息。
激光雷達掃描儀(LiDAR)內置的高級場景理解功能允許Depth API利用關于周遭環(huán)境的每像素深度信息。當與場景幾何體生成的三維網(wǎng)格數(shù)據(jù)相結合時,通過啟用虛擬對象的即時放置并將與物理環(huán)境無縫混合,深度信息可以令虛擬對象遮擋更為逼真。這可以支持應用程序部署全新的功能,比如更精確的測量和將效果應用到用戶環(huán)境中。
蘋果日前發(fā)布了iOS14 Beta 6,而根據(jù)開發(fā)者的反饋,LiDAR所能實現(xiàn)的虛實遮擋已經(jīng)達到了幾乎“無法區(qū)分真假”的地步。
Twitter用戶usdzshare日前上傳了一段關于iOS14 Beta 6的AR遮擋效果的視頻。我們可以看到,虛擬對象可以逼真地遮擋真實對象。反過來,真實對象同樣能夠逼真地遮擋虛擬對象。
另外,為了說明具體的效果提升,usdzshare同時上傳了iOS 13.6+iPhone的AR遮擋效果。經(jīng)過對比,我們可以看到iOS14 Beta 6在光影,以及虛實遮擋接合位置的處理有了長足的提升,而這主要是得益于LiDAR。
值得一提的是,有消息稱下一代iPhoe 12 Pro有望搭載LiDAR,相信這將能大大提升AR應用的真實感和沉浸感。