當(dāng)前位置:首頁(yè) > 智能硬件 > vr|ar|虛擬現(xiàn)實(shí)
[導(dǎo)讀] (文章來(lái)源:VR陀螺網(wǎng)) 當(dāng)我們通過(guò)攝像頭得到深度圖后,下一步就是把深度圖輸入給算法,算法可以輸出我們手部所有關(guān)鍵點(diǎn)的 3D 位置。手部關(guān)鍵點(diǎn)也可以理解為手部骨架的關(guān)節(jié)點(diǎn),通常用 21

(文章來(lái)源:VR陀螺網(wǎng))

當(dāng)我們通過(guò)攝像頭得到深度圖后,下一步就是把深度圖輸入給算法,算法可以輸出我們手部所有關(guān)鍵點(diǎn)的 3D 位置。手部關(guān)鍵點(diǎn)也可以理解為手部骨架的關(guān)節(jié)點(diǎn),通常用 21 個(gè) 3D 關(guān)鍵點(diǎn)來(lái)描述。每個(gè) 3D 關(guān)鍵點(diǎn)有 3 個(gè)自由度,那么輸出維度就是 21*3。目前學(xué)術(shù)界已經(jīng)提出各種算法用于解決“基于深度的手勢(shì)姿態(tài)估計(jì)問(wèn)題“,這些算法大體可以分成模型驅(qū)動(dòng)(model-driven)和數(shù)據(jù)驅(qū)動(dòng)(data-driven)兩種方式。

1、模型驅(qū)動(dòng)類(lèi)算法,此類(lèi)算法通常是預(yù)先用手部 pose(pose 指位姿參數(shù)或節(jié)點(diǎn)位置,后文將統(tǒng)稱(chēng)為 pose)生成一系列手的幾何模型,并建立一個(gè)搜索空間(所有可能的手勢(shì)幾何模型的集合),然后在搜索空間內(nèi)找到與輸入深度圖最匹配的模型。此時(shí),模型對(duì)應(yīng)的參數(shù)就是所求的 pose。模型驅(qū)動(dòng)類(lèi)算法通常需要設(shè)計(jì)一種方式把 pose 轉(zhuǎn)換成對(duì)應(yīng)的幾何模型。

此論文用了 linear blend skinning(一種骨骼蒙皮動(dòng)畫(huà)算法):意思就是給骨架蒙上一層皮膚,并讓皮膚跟隨骨骼運(yùn)動(dòng)一起變化,多用于動(dòng)畫(huà)領(lǐng)域。先把 pose 轉(zhuǎn)換成對(duì)應(yīng)的 mesh(下圖左側(cè)),在進(jìn)一步轉(zhuǎn)換成光滑曲面模型。我們可以理解為 pose 是自變量,幾何模型可由 pose 算出,且?guī)缀文P团c pose 一一對(duì)應(yīng)。

輸入的手部深度圖可轉(zhuǎn)化為點(diǎn)云, 此點(diǎn)云就相當(dāng)于在真實(shí)的手表面上采集到的一些 3D 點(diǎn),如下圖中的紅點(diǎn)和藍(lán)點(diǎn):這樣就可以定義損失函數(shù)為點(diǎn)云中的點(diǎn)到模型表面的距離(上圖中的紅線),以此描述深度圖和pose的相似度。損失函數(shù)的輸入是深度圖和 pose,輸出是差異度。損失函數(shù)的輸出值越小,說(shuō)明輸入的深度圖和pose越相似。

因此,只要在搜索空間中找到令損失函數(shù)最小的 pose 即為所求的pose。但因搜索空間不能寫(xiě)成解析形式,沒(méi)法一次性求出損失函數(shù)的最小值,通常只能用數(shù)值計(jì)算方法,如PSO,ICP等,不斷迭代計(jì)算得到最優(yōu)解。迭代的數(shù)值解法通常對(duì)初始化要求較高,若初始化的不好,則需要很長(zhǎng)時(shí)間才能迭代收斂,還有可能無(wú)法收斂到全局最小值(因?yàn)閾p失函數(shù)是非凸函數(shù)),所以算法實(shí)現(xiàn)時(shí),通常利用上一幀的pose來(lái)初始化當(dāng)前幀的計(jì)算。

這種模型驅(qū)動(dòng)類(lèi)方法需要手工設(shè)計(jì)幾何模型和損失函數(shù)。簡(jiǎn)單的幾何模型計(jì)算量小,復(fù)雜的幾何模型準(zhǔn)確度高。通常設(shè)計(jì)模型時(shí)需要在準(zhǔn)確度和性能之間做權(quán)衡。模型驅(qū)動(dòng)類(lèi)的算法優(yōu)勢(shì)是不需要任何訓(xùn)練數(shù)據(jù),只要設(shè)計(jì)的好,寫(xiě)完就可以直接用。 缺點(diǎn)是需要手工設(shè)計(jì)模型,計(jì)算量較大,容易誤差累計(jì)導(dǎo)致漂移,對(duì)初始化要求高,通常只能用在手勢(shì)追蹤領(lǐng)域。

2、數(shù)據(jù)驅(qū)動(dòng)類(lèi)算法,此類(lèi)算法是指利用收集數(shù)據(jù)中訓(xùn)練樣本與其對(duì)應(yīng)的標(biāo)簽關(guān)系,讓機(jī)器學(xué)習(xí)一個(gè)從樣本到標(biāo)簽的映射。 此類(lèi)算法屬于判別式方法(Discriminative Approaches)。

這樣的機(jī)器學(xué)習(xí)算法有很多,可以是早期使用的隨機(jī)森林,SVM 或是最近研究的火熱的神經(jīng)網(wǎng)絡(luò)等。此類(lèi)方法的優(yōu)點(diǎn)是不需要設(shè)計(jì)復(fù)雜的模型,缺點(diǎn)是需要大數(shù)據(jù)。但現(xiàn)在大數(shù)據(jù)時(shí)代數(shù)據(jù)量已經(jīng)不是問(wèn)題,這種數(shù)據(jù)驅(qū)動(dòng)的方式已經(jīng)成為目前的主流研究方向。

早期學(xué)術(shù)界研究手勢(shì)關(guān)鍵點(diǎn)回歸的經(jīng)典方法有 Cascade regression, Latent Regression Forest 等。近些年研究主要集中在各類(lèi)神經(jīng)網(wǎng)絡(luò)如:DeepPrior 系列、REN、pose guided、3D-CNN、MulTI-View CNNs、HandPointNet、Feedback Loop 等。

由于此處討論的用于手勢(shì)的神經(jīng)網(wǎng)絡(luò)與普通的圖的神經(jīng)網(wǎng)絡(luò)并無(wú)本質(zhì)差異,而神經(jīng)網(wǎng)絡(luò)的科普文章已經(jīng)很多,這里就不做科普了,我們僅挑幾個(gè)有代表性的網(wǎng)絡(luò)結(jié)構(gòu)介紹一下:DeepPrior:網(wǎng)絡(luò)結(jié)構(gòu)大體如下圖,通過(guò)初始網(wǎng)絡(luò)得到粗略的 pose,再用 refine 網(wǎng)絡(luò)不斷優(yōu)化, 并且在最后的全連接層前加了一個(gè)低維嵌入,迫使網(wǎng)絡(luò)學(xué)習(xí)把特征空間壓縮到更低維度。 此網(wǎng)絡(luò)后續(xù)有更優(yōu)化的版本 DeepPrior++。

網(wǎng)絡(luò)在預(yù)測(cè) pose 之后,反過(guò)來(lái)用 pose 生成深度圖,并與輸入的深度圖一起預(yù)測(cè)更優(yōu)的 pose,此 pose 又可用來(lái)生成更優(yōu)的深度圖,以此迭代循環(huán)優(yōu)化pose。3D CNN:網(wǎng)絡(luò)結(jié)構(gòu)如下圖,此網(wǎng)絡(luò)把2D深度圖上用像素的描述的深度信息,以TSDF的方式轉(zhuǎn)化為體素(3D的像素),并用3D 卷積代替了普通的2D卷積。

此處最大的貢獻(xiàn)就是在網(wǎng)絡(luò)結(jié)構(gòu)上從2D走到了3D,因?yàn)閭鹘y(tǒng)2D卷積網(wǎng)絡(luò)是為2D圖像設(shè)計(jì)的,并不一定適合3D信息的提取,而用3D卷積網(wǎng)絡(luò)則更容易獲取3D特征,也就更適用于3D手部關(guān)鍵點(diǎn)回歸的問(wèn)題。HandPointNet:網(wǎng)絡(luò)輸入時(shí)把深度圖轉(zhuǎn)成點(diǎn)云,然后用 PointNet 做手部 3D 關(guān)鍵點(diǎn)回歸。

HandPointNet的主要貢獻(xiàn)是首次把PointNet用在了手勢(shì)關(guān)鍵點(diǎn)回歸上,其中的PointNet是很有代表性的網(wǎng)絡(luò)。PointNet 首次用 3D 點(diǎn)云來(lái)作為網(wǎng)絡(luò)輸入而不是 2D 圖片。PointNet 比上一個(gè)介紹的 3DCNN 更進(jìn)一步探索了在 3D 空間中的神經(jīng)網(wǎng)絡(luò)架構(gòu),以及如何更有效的提取 3D 特征,PointNet后續(xù)有更優(yōu)化的版本PointNet++。
? ? ?

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專(zhuān)欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車(chē)的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車(chē)技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車(chē)工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車(chē)。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車(chē) 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶(hù)希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱(chēng),數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱(chēng)"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉