對Hopfield神經(jīng)網(wǎng)絡(HNN)下結(jié)論及分析在人工智能方面的應用
神經(jīng)網(wǎng)絡在1980年代復興歸功于物理學家約翰·霍普菲爾德(Hopfield)。1982年,霍普菲爾德提出了一種新的神經(jīng)網(wǎng)絡,可以解決一大類模式識別問題,還可以給出一類組合優(yōu)化問題的近似解。這種神經(jīng)網(wǎng)絡模型后被稱為Hopfield神經(jīng)網(wǎng)絡。
Hopfield神經(jīng)網(wǎng)絡是一種循環(huán)神經(jīng)網(wǎng)絡[請參見公眾號“科技優(yōu)化生活”之人工智能(23)],由約翰·霍普菲爾德發(fā)明,他將物理學的相關(guān)思想(動力學)引入到神經(jīng)網(wǎng)絡的構(gòu)造中,從而形成了Hopfield神經(jīng)網(wǎng)絡。貝爾實驗室在1987年成功在Hopfield神經(jīng)網(wǎng)絡的基礎上研制出了神經(jīng)網(wǎng)絡芯片。
Hopfield神經(jīng)網(wǎng)絡是一種遞歸神經(jīng)網(wǎng)絡,從輸出到輸入均有反饋連接,每一個神經(jīng)元跟所有其他神經(jīng)元相互連接,又稱為全互聯(lián)網(wǎng)絡。
Hopfield神經(jīng)網(wǎng)絡概述:
Hopfield神經(jīng)網(wǎng)絡HNN(Hopfiled Neural Network)是一種結(jié)合存儲系統(tǒng)和二元系統(tǒng)的神經(jīng)網(wǎng)絡。它保證了向局部極小的收斂,但收斂到錯誤的局部極小值(local minimum),而非全局極小(global minimum)的情況也可能發(fā)生。Hopfield神經(jīng)網(wǎng)絡也提供了模擬人類記憶的模型。
Hopfield神經(jīng)網(wǎng)絡是反饋神經(jīng)網(wǎng)絡,其輸出端又會反饋到其輸入端,在輸入的激勵下,其輸出會產(chǎn)生不斷的狀態(tài)變化,這個反饋過程會一直反復進行。假如Hopfield神經(jīng)網(wǎng)絡是一個收斂的穩(wěn)定網(wǎng)絡,則這個反饋與迭代的計算過程所產(chǎn)生的變化越來越小,一旦達到了穩(wěn)定的平衡狀態(tài),Hopfield網(wǎng)絡就會輸出一個穩(wěn)定的恒值。
對于一個Hopfield神經(jīng)網(wǎng)絡來說,關(guān)鍵在于確定它在穩(wěn)定條件下的權(quán)系數(shù)。
Hopfield神經(jīng)網(wǎng)絡分為兩種:1)離散型Hopfield神經(jīng)網(wǎng)絡;2)連續(xù)型Hopfield神經(jīng)網(wǎng)絡。
離散型Hopfield神經(jīng)網(wǎng)絡:
Hopfield最早提出的網(wǎng)絡是二值神經(jīng)網(wǎng)絡,各神經(jīng)元的激勵函數(shù)為階躍函數(shù)或雙極值函數(shù),神經(jīng)元的輸入、輸出只取{0,1}或者{ -1,1},所以也稱為離散型Hopfield神經(jīng)網(wǎng)絡DHNN(Discrete Hopfiled Neural Network)。在DHNN中,所采用的神經(jīng)元是二值神經(jīng)元;因此,所輸出的離散值1和0或者1和-1分別表示神經(jīng)元處于激活狀態(tài)和抑制狀態(tài)。
離散Hopfield神經(jīng)網(wǎng)絡DHNN是一個單層網(wǎng)絡,有n個神經(jīng)元節(jié)點,每個神經(jīng)元的輸出均接到其它神經(jīng)元的輸入。各節(jié)點沒有自反饋。每個節(jié)點都可處于一種可能的狀態(tài)(1或-1),即當該神經(jīng)元所受的刺激超過其閥值時,神經(jīng)元就處于一種狀態(tài)(比如1),否則神經(jīng)元就始終處于另一狀態(tài)(比如-1)。
DHNN有兩種工作方式:
1)串行(異步)方式:在時刻t時,只有某一個神經(jīng)元j的狀態(tài)發(fā)生變化,而其他n-1個神經(jīng)元的狀態(tài)不變,稱為串行工作方式。并且有:
2)并行(同步)方式:在任一時刻t,所有的神經(jīng)元的狀態(tài)都產(chǎn)生了變化,稱為并行工作方式。并且有:
DHNN穩(wěn)定性:
假設一個DHNN,其狀態(tài)為Y(t):
如果對于任何Δt》0,當神經(jīng)網(wǎng)絡從t=0開始,有初始狀態(tài)Y(0)。經(jīng)過有限時刻t,有:
Y(t+Δt)=Y(t)
則認為該DHNN網(wǎng)絡是穩(wěn)定的,稱其狀態(tài)為為穩(wěn)定狀態(tài)。DHNN網(wǎng)絡的穩(wěn)定狀態(tài)X就是網(wǎng)絡的吸引子(attractor),用于存儲記憶信息。串行方式下的穩(wěn)定性稱為串行穩(wěn)定性;并行方式下的穩(wěn)定性稱為并行穩(wěn)定性。
DHNN是一種多輸入、含有閾值的二值非線性動態(tài)系統(tǒng)。在動態(tài)系統(tǒng)中,平衡穩(wěn)定狀態(tài)可以理解為系統(tǒng)某種形式的能量函數(shù)(energy funcTIon)在系統(tǒng)運行過程中,其能量不斷減少,最后處于最小值。
DHNN穩(wěn)定的充分條件:如果DHNN的權(quán)系數(shù)矩陣W是一個對稱矩陣,并且對角線元素為0,則這個網(wǎng)絡是穩(wěn)定的。即在權(quán)系數(shù)矩陣W中,如果:
則該DHNN是穩(wěn)定的。
W是一個對稱矩陣僅是充分條件,不是必要條件。
DHNN聯(lián)想記憶功能:
DHNN一個重要功能是可以用于聯(lián)想記憶,即聯(lián)想存儲器,這是人類的智能特點之一。
要實現(xiàn)聯(lián)想記憶,DHNN必須具有兩個基本條件:
1) 網(wǎng)絡能收斂到穩(wěn)定的平衡狀態(tài),并以其作為樣本的記憶信息;
2) 具有回憶能力,能夠從某一殘缺的信息回憶起所屬的完整的記憶信息。
DHNN實現(xiàn)聯(lián)想記憶過程分為兩個階段:
1)學習記憶階段: 設計者通過某一設計方法確定一組合適的權(quán)值,使DHNN記憶期望的穩(wěn)定平衡點。
2)聯(lián)想回憶階段: DHNN的工作過程。
記憶是分布式的,而聯(lián)想是動態(tài)的。
對于DHNN,由于網(wǎng)絡狀態(tài)是有限的,不可能出現(xiàn)混沌狀態(tài)。
DHNN局限性:
1)記憶容量的有限性;
2)偽穩(wěn)定點的聯(lián)想與記憶;
3)當記憶樣本較接近時,網(wǎng)絡不能始終回憶出正確的記憶等;
4)DHNN平衡穩(wěn)定點不可以任意設置,也沒有一個通用的方式來事先知道平衡穩(wěn)定點。
連續(xù)型Hopfield神經(jīng)網(wǎng)絡:
連續(xù)Hopfield神經(jīng)網(wǎng)絡CHNN(ConTInuous Hopfield Neural Network)與DHNN在拓撲結(jié)構(gòu)上是一致的。
CHNN穩(wěn)定性:
CHNN穩(wěn)定條件要求:
CHNN與DHNN不同之處在于其函數(shù)g不是階躍函數(shù),而是S型的連續(xù)函數(shù)。一般?。?/p>
CHNN在時間上是連續(xù)的,所以CHNN網(wǎng)絡中各個神經(jīng)元是處于同步方式工作的。
當CHNN網(wǎng)絡的神經(jīng)元傳遞函數(shù)g是連續(xù)且有界的(如Sigmoid函數(shù)),并且CHNN網(wǎng)絡的權(quán)值系數(shù)矩陣對稱,則這個CHNN網(wǎng)絡是穩(wěn)定的。
優(yōu)化問題:
在實際應用中的系統(tǒng),如果其優(yōu)化問題可以用能量函數(shù)E(t)作為目標函數(shù),那么CHNN網(wǎng)絡和優(yōu)化問題直接對應。這樣,大量優(yōu)化問題都可以用CHNN網(wǎng)絡來求解。這也是Hopfield網(wǎng)絡用于神經(jīng)計算的基本原因。
CHNN與DHNN主要區(qū)別:
CHNN與DHNN的主要差別在于:CHNN神經(jīng)元激活函數(shù)使用Sigmoid函數(shù),而DHNN神經(jīng)元激活函數(shù)使用了硬極限函數(shù)。
Hopfield神經(jīng)網(wǎng)絡應用:
Hopfield神經(jīng)網(wǎng)絡早期應用包括按內(nèi)容尋址存儲器,模數(shù)轉(zhuǎn)換及優(yōu)化組合計算等。具有代表意義的是解決TSP問題,1985年Hopfield和Tank用Hopfield網(wǎng)絡求解N=30的TSP問題,從而創(chuàng)建了神經(jīng)網(wǎng)絡優(yōu)化的新途徑。除此之外,Hopfield 神經(jīng)網(wǎng)絡在人工智能之機器學習、聯(lián)想記憶、模式識別、優(yōu)化計算、VLSI和光學設備的并行實現(xiàn)等方面有著廣泛應用。
結(jié)語:
Hopfield神經(jīng)網(wǎng)絡(HNN)是一種具有循環(huán)、遞歸特性,結(jié)合存儲和二元系統(tǒng)的神經(jīng)網(wǎng)絡。由約翰·霍普菲爾德在1982年發(fā)明。對于一個Hopfield神經(jīng)網(wǎng)絡來說,關(guān)鍵在于確定它在穩(wěn)定條件下的權(quán)系數(shù)。Hopfield神經(jīng)網(wǎng)絡分為離散型和連續(xù)型兩種,主要差別在于激活函數(shù)的不同。Hopfield神經(jīng)網(wǎng)絡(HNN)提供了模擬人類記憶的模型。它在人工智能之機器學習、聯(lián)想記憶、模式識別、優(yōu)化計算、VLSI和光學設備的并行實現(xiàn)等方面有著廣泛應用。