當(dāng)前位置:首頁(yè) > 智能硬件 > 智能硬件
[導(dǎo)讀]各位以為用人臉識(shí)別性別年齡就很厲害了嗎? 這篇文章要來(lái)讓各位瞧瞧深度學(xué)習(xí)的黑科技可以黑到甚么程度。 只要透過(guò)手的照片,就能夠知道性別與年齡,透過(guò)卷積神經(jīng)網(wǎng)絡(luò)就能做到這么神奇的效果。

隨著深度學(xué)習(xí)的技術(shù)發(fā)展,越來(lái)越多的深度學(xué)習(xí)應(yīng)用也進(jìn)入到我們的世界。 其中最為普遍的就是人臉識(shí)別,包括微軟也推出了Cognitive Face API,可以透過(guò)人臉來(lái)識(shí)別身分,甚至可以用來(lái)判斷性別與年齡。

各位以為用人臉識(shí)別性別年齡就很厲害了嗎? 這篇文章要來(lái)讓各位瞧瞧深度學(xué)習(xí)的黑科技可以黑到甚么程度。 只要透過(guò)手的照片,就能夠知道性別與年齡,透過(guò)卷積神經(jīng)網(wǎng)絡(luò)就能做到這么神奇的效果。

本文將從數(shù)據(jù)到模型,透過(guò)微軟的深度學(xué)習(xí)框架CNTK以及臉書(shū)的深度學(xué)習(xí)框架Pytorch,來(lái)實(shí)作根據(jù)手的照片來(lái)判斷人的性別與年齡。 以下解說(shuō)部分張貼的皆為CNTK代碼,并附上兩個(gè)框架代碼。

首先關(guān)于使用的數(shù)據(jù)來(lái)自Google,他提供了一組數(shù)據(jù)包含了11,000張手部的照片(圖1),同時(shí)包含手的主人的性別年齡與種族。 我們將會(huì)擷取里面的性別(類(lèi)別)與年齡(連續(xù))數(shù)據(jù)來(lái)作為輸出變量,手部圖片作為輸入特征。

 

 

圖1 Google提供了一組數(shù)據(jù)包含了11,000張手部的照片。

由于下載后還要自己整理圖片有些許麻煩,因此我也已做好圖片的懶人包,將圖片數(shù)據(jù)向量化,以及比對(duì)好卷標(biāo)檔的結(jié)果,并以Pickle文件格式儲(chǔ)存。

圖2為解析完的結(jié)果,列表內(nèi)的每個(gè)項(xiàng)目也是一個(gè)子列表,里面分別包含兩個(gè)Ndarray,第一個(gè)是形狀3×64×64的向量代表圖檔。 請(qǐng)注意,CNTK與Pytorch都是CHW格式:信道×高×寬。 另一個(gè)則是形狀為3的向量,里面三個(gè)數(shù)值分別為id(數(shù)值相同代表是同一個(gè)人的不同角度的手)、年齡(介于0~100)以及性別(0是表示女性,1是表示男性)。

 

 

圖2 Google手部圖片分析后的結(jié)果

CNTK與Pytorch的圖片格式要求是一樣的,在各家深度學(xué)習(xí)框架中,僅有Tensorflow的排列順序相反。 向量維度的排列是CHW(信道×高×寬),顏色的排列順序是BGR(藍(lán)綠紅),也就都是依照字母順序排列。

關(guān)于圖片與向量的轉(zhuǎn)換方法如下:

def img2array(img: Image):

arr=np.array(img).astype(np.float32)

arr=arr.transpose(2, 0, 1)#轉(zhuǎn)成CHW

arr=arr[::-1] #顏色排序?yàn)锽GR

return np.ascontiguousarray(arr)

def array2img(arr: np.ndarray):

sanitized_img=arr[::-1]#轉(zhuǎn)成RGB

sanitized_img=np.maximum(0, np.minimum(255, np.transpose(arr, (1, 2, 0))))#轉(zhuǎn)成HWC

img=Image.fromarray(sanitized_img.astype(np.uint8))

return img

為了供給建模使用的數(shù)據(jù)讀取器,同時(shí)也因?yàn)槲蚁胍吰涔τ谝灰?,讓兩種框架都可以一次適用,所以我寫(xiě)了一個(gè)通用的讀取器來(lái)供應(yīng)每個(gè)Minibatch所需要的數(shù)據(jù)。 其中讀取圖片時(shí),我將圖片向量除以255,而且讀取年齡時(shí),我將數(shù)值除以100,都是為了確保數(shù)據(jù)可以介于0~1之間,以方便收斂。 在這個(gè)范例中因?yàn)槠P(guān)系暫時(shí)不放數(shù)據(jù)增強(qiáng)(Data Augmentation)。 利用函數(shù),每次調(diào)用都可以回傳圖片以及所需要卷標(biāo)。 此外,要注意的是打亂圖片順序這個(gè)步驟很重要,Google的數(shù)據(jù)是有按照性別排序的。

在這里要示范的卷積神經(jīng)網(wǎng)絡(luò)骨干網(wǎng)絡(luò)用的是我最近很推崇的一篇文章所介紹的新架構(gòu)「DenseNet」,原始論文出處為「Densely Connected Convolutional Networks」。

傳統(tǒng)的卷積網(wǎng)絡(luò)都是線性的,但當(dāng)層數(shù)越多時(shí),就有可能發(fā)生梯度彌散的問(wèn)題,造成模型無(wú)法收斂。 正因如此,微軟亞洲院2015年發(fā)展出的殘差神經(jīng)網(wǎng)絡(luò)(ResNet)就使用了跳轉(zhuǎn)連接(Skip Connection),以有效的將梯度挹注到后面神經(jīng)層,這樣模型就可以做出超深的架構(gòu),也不用擔(dān)心難以收斂。

微軟2015年就以152層的ResNet獲得了當(dāng)年的imageNet冠軍。 但是深度學(xué)習(xí)在訓(xùn)練的過(guò)程中,當(dāng)卷積神經(jīng)網(wǎng)絡(luò)將梯度傳送到后層的時(shí)候,都會(huì)發(fā)生特征被隨機(jī)遺失,這樣這個(gè)特征就再也傳不下去而無(wú)用了。 為了解決這個(gè)問(wèn)題,DenseNet的基本概念就是,每一層的特征都會(huì)傳送到后面的「每」一層,這樣就可以有效的確保訊號(hào)不被丟失。

 

 

圖3 ResNet架構(gòu)

DenseNet的基本結(jié)構(gòu)稱(chēng)之為稠密單元(Dense Block),它有幾個(gè)重要的超參數(shù):

·k:稠密單元層數(shù)

·n_channel_start:初始信道數(shù)

·glowth_rate:信道成長(zhǎng)數(shù)

以圖4為例,假設(shè)下圖是一個(gè)k=4(向下傳遞4次,所以共5層),初始信道數(shù)32,成長(zhǎng)數(shù)為16的Dense Block,分別計(jì)算每一層的輸入信道數(shù)(從前面?zhèn)鬟M(jìn)來(lái)):

 

 

圖4 5層架構(gòu)的Dense Block

X1:32+16(來(lái)自于X0)=48

X2:48+16(來(lái)自于X1)=64

X3:64+16(來(lái)自于X0)+16(來(lái)自于X1)=96

X4:96+16(來(lái)自于X0)+16(來(lái)自于X1)+16(來(lái)自于X2)=144

Growth Rate有就是每次會(huì)傳遞多少信道到后面的層數(shù),以上面說(shuō)明案例固定數(shù)值為16,但該卷積層的信道數(shù)比這數(shù)字更大,因此等于是強(qiáng)迫每個(gè)卷積層要做一次特征選取,將特征精選之后傳至后方。 這種「Save the Best for Last」的精神,可以高度保全有效特征,以強(qiáng)化模型的收斂。 DenseNet就是利用多個(gè)DenseBlock構(gòu)成的網(wǎng)絡(luò)(圖5)。

另外,CNTK與Pytorch都沒(méi)有默認(rèn)的DenseNet,所以筆者用自定義網(wǎng)絡(luò)的方式實(shí)作了兩個(gè)框架下的DenseNet。 在該實(shí)作中,由于圖片只有64×64,經(jīng)不起太多次圖片縮小,因此使用了5層k=4的Dense Block。 同時(shí),筆者也測(cè)試過(guò)3層,收斂速度快,但是結(jié)果測(cè)試集落差很大,顯著過(guò)擬合。 由于想要同時(shí)預(yù)測(cè)性別與年齡,CNTK一個(gè)很神奇的特性就是可以在一個(gè)主要骨架下,同時(shí)接兩個(gè)輸出,只需要使用Combine函數(shù),就可以將兩個(gè)輸出合并。 未來(lái)更只要做一次預(yù)測(cè),就能產(chǎn)出兩個(gè)預(yù)測(cè)結(jié)果,而且訓(xùn)練時(shí)也只要訓(xùn)練一次,而且骨干部分特征選取流程不需要做兩次,是不是很方便呢。 但如果你是使用其他框架就只好做兩個(gè)模型了。

預(yù)測(cè)性別部分,使用的是長(zhǎng)度為2的向量,最后一層全連接層活化函數(shù)使用Softmax已進(jìn)行分類(lèi)。 預(yù)測(cè)年齡部分,由于讀取數(shù)據(jù)時(shí)已經(jīng)將年齡除以100,因此年齡分布為0~1之間的常態(tài)分布,因此使用Sigmoid函數(shù)效果較好。

最后的訓(xùn)練過(guò)程可以透過(guò)另一個(gè)函數(shù)來(lái)控制。 首先宣告輸入變量以及兩個(gè)輸出變量(性別與年齡),然后宣告模型、損失函數(shù)以及正確率指針。 優(yōu)化器使用的是Adam,然后每50個(gè)Minibatch就用測(cè)試集測(cè)試一次。

筆者使用gtx-1080(minibatch size=64)跑完第3個(gè)epoch的結(jié)果如圖6,可以看出年齡誤差只有1.8%,性別目前仍有20.31%的錯(cuò)誤率,看來(lái)手真的藏不住年齡啊! 這個(gè)模型若是希望提升其泛化效果,應(yīng)該要在輸入數(shù)據(jù)加入數(shù)據(jù)增強(qiáng)。

 

 

圖6 使用gtx-1080(minibatch size=64)跑完第3個(gè)epoch的結(jié)果

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專(zhuān)欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車(chē)的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車(chē)技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車(chē)工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車(chē)。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車(chē) 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱(chēng),數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱(chēng)"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉