當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 前言:人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,請參見公眾號“科技優(yōu)化生活”之前相關(guān)文章。人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)算法。

前言:人工智能機(jī)器學(xué)習(xí)有關(guān)算法內(nèi)容,請參見公眾號“科技優(yōu)化生活”之前相關(guān)文章。人工智能之機(jī)器學(xué)習(xí)主要有三大類:1)分類;2)回歸;3)聚類。今天我們重點(diǎn)探討一下循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)算法。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)現(xiàn)已成為國際上神經(jīng)網(wǎng)絡(luò)專家研究的重要對象之一。它是一種節(jié)點(diǎn)定向連接成環(huán)的人工神經(jīng)網(wǎng)絡(luò),最初由Jordan,Pineda.Williams,Elman等于上世紀(jì)80年代末提出的一種神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型。

引領(lǐng)循環(huán)神經(jīng)網(wǎng)絡(luò)RNN研究的主要是JuergenSchmidhuber和他的學(xué)生——其中包括SeppHochreiter,他發(fā)現(xiàn)了高深度網(wǎng)絡(luò)所遇到的梯度消失問題,后來又發(fā)明了長短期記憶(LSTM)循環(huán)網(wǎng)絡(luò);還有Alex Graves,他目前在DeepMind任職。另外兩位比較著名的研究者分別是:Felix Gers,他發(fā)明了LSTM遺忘門;Justin Bayer,他發(fā)明了可以讓LSTM拓?fù)浣Y(jié)構(gòu)根據(jù)具體問題進(jìn)行自動演化的方法。

RNN概念:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN(Recurrent NeuronNetwork)的內(nèi)部狀態(tài)可以展示動態(tài)時(shí)序行為。不同于前饋神經(jīng)網(wǎng)絡(luò)的是,RNN可以利用它內(nèi)部的記憶來處理任意時(shí)序的輸入序列,這讓它可以更容易處理如不分段的手寫識別、語音識別等。

循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)可以實(shí)現(xiàn)并行和序列計(jì)算,原則上可以計(jì)算任何傳統(tǒng)計(jì)算機(jī)所能計(jì)算的東西。但和傳統(tǒng)計(jì)算機(jī)不同的是,RNN與人類大腦有相似之處;人腦是一種由神經(jīng)元相互聯(lián)結(jié)組成的大型前饋網(wǎng)絡(luò),可以借由某種方式學(xué)會將長達(dá)人的一生的感覺信號輸入流轉(zhuǎn)換為一個(gè)有效的運(yùn)動輸出序列。人腦是一個(gè)杰出的模范,因?yàn)樗芙鉀Q許多計(jì)算機(jī)尚且力所不及的問題。

RNN特征:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN的本質(zhì)特征是在處理單元之間既有內(nèi)部的反饋連接又有前饋連接。從系統(tǒng)觀點(diǎn)看,它是一個(gè)反饋動力系統(tǒng),在計(jì)算過程中體現(xiàn)過程動態(tài)特性,比前饋神經(jīng)網(wǎng)絡(luò)具有更強(qiáng)的動態(tài)行為和計(jì)算能力。

RNN分類:

1)完全遞歸網(wǎng)絡(luò)(Fully recurrent network)

2)Hopfield網(wǎng)絡(luò)(Hopfield network)

3)Elman networks and Jordannetworks

4)回聲狀態(tài)網(wǎng)絡(luò)(Echo state network)

5)長短記憶網(wǎng)絡(luò)(Long short term memery network)

6)雙向網(wǎng)絡(luò)(Bi-direcTIonal RNN)

7)持續(xù)型網(wǎng)絡(luò)(ConTInuous-TIme RNN)

8)分層RNN(Hierarchical RNN)

9)復(fù)發(fā)性多層感知器(Recurrent mulTIlayer perceptron)

10)二階遞歸神經(jīng)網(wǎng)絡(luò)(Second Order Recurrent Neural Network)

11)波拉克的連續(xù)的級聯(lián)網(wǎng)絡(luò)(Pollack’s sequential cascaded networks)

RNN與FNN區(qū)別:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN和前饋神經(jīng)網(wǎng)絡(luò)FNN的最大區(qū)別在于有一個(gè)反饋循環(huán)。另外,兩者的記憶模式完全不同。在定型之后,前饋神經(jīng)網(wǎng)絡(luò)會生成已學(xué)習(xí)數(shù)據(jù)的靜態(tài)模型,然后接受新的樣例,進(jìn)行準(zhǔn)確的分類或聚類。而循環(huán)神經(jīng)網(wǎng)絡(luò)RNN則會生成動態(tài)模型,即會隨時(shí)間推移而變化的模型,即將第n-1步的輸出反饋給神經(jīng)網(wǎng)絡(luò),對第n步的輸出產(chǎn)生影響,之后的每一步也都以此類推。這種變化可以讓模型依據(jù)輸入樣例的上下文來進(jìn)行準(zhǔn)確的分類。

RNN模型與記憶:

循環(huán)神經(jīng)網(wǎng)絡(luò)RNN包含了決定同個(gè)序列中的前一次分類結(jié)果的隱藏狀態(tài)。以后每一步,這一隱藏狀態(tài)會與新一步的輸入數(shù)據(jù)相加,生成一個(gè)新的隱藏狀態(tài),再得出一個(gè)新的分類結(jié)果。每個(gè)隱藏狀態(tài)都會被循環(huán)利用,生成經(jīng)過調(diào)整的后續(xù)隱藏狀態(tài)。

人類的記憶模式同樣能考慮上下文,循環(huán)利用對于過往狀態(tài)的認(rèn)知來恰當(dāng)?shù)亟庾x新數(shù)據(jù)。人類會受到短期記憶和先前感覺的影響,保留了不同的“隱藏狀態(tài)”。

RNN基本結(jié)構(gòu):

RNN是一種對序列數(shù)據(jù)建模的神經(jīng)網(wǎng)絡(luò),即一個(gè)序列當(dāng)前的輸出與前面的輸出也有關(guān)。具體的表現(xiàn)形式為網(wǎng)絡(luò)會對前面的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計(jì)算中,即隱藏層之間的節(jié)點(diǎn)不再無連接而是有連接的,并且隱藏層的輸入不僅包括輸入層的輸出還包括上一時(shí)刻隱藏層的輸出。下面是一個(gè)RNN模型的示例圖,其中:

xt是t時(shí)刻的輸入;

st是t時(shí)刻的隱狀態(tài)(memory),基于上一時(shí)刻的隱狀態(tài)和當(dāng)前輸入得到:st=f(Uxt+Wst?1),其中f一般是非線性的激活函數(shù),在計(jì)算s0時(shí),需要用到s?1。

ot表示t時(shí)刻的輸出,ot=softmax(Vst);

在RNN中,所有層次均共享同樣的參數(shù)。其反應(yīng)出RNN中的每一步都在做相同的事,只是輸入不同,因此大大地降低了網(wǎng)絡(luò)中需要學(xué)習(xí)的參數(shù)。

RNN允許對向量的序列進(jìn)行操作:輸入可以是序列,輸出也可以是序列,在最一般化的情況下輸入輸出都可以是序列。輸出序列理解為RNN關(guān)于序列下一個(gè)狀態(tài)預(yù)測的信心程度。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉