當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀]AutoEncoder的基本思想是利用神經(jīng)網(wǎng)絡(luò)來做無監(jiān)督學(xué)習(xí),就是把樣本的輸入同時作為神經(jīng)網(wǎng)絡(luò)的輸入和輸出。本質(zhì)上是希望學(xué)習(xí)到輸入樣本的表示(encoding)。早期AutoEncoder的研究主要是數(shù)據(jù)過于稀疏、數(shù)據(jù)高維導(dǎo)致計算復(fù)雜度高。比較早用神經(jīng)網(wǎng)絡(luò)做AutoEncoder的可以追溯到80年代的BPNN和MLP以及當(dāng)時Hinton推崇的RBM。后來到了2000年以后還堅持在做的只剩下Hinton的RBM了。從2000年以后,隨著神經(jīng)網(wǎng)絡(luò)的快速興起,AutoEncoder也得到快速發(fā)展,基本上有幾條線:稀疏AutoEncoder、噪音容忍AutoEncoder、卷積AutoEncoder、變分AutoEncoder。最新的進(jìn)展是結(jié)合對抗思想的對抗AutoEncoder。

機器學(xué)習(xí)是研究怎樣使用計算機模擬或?qū)崿F(xiàn)人類學(xué)習(xí)活動的科學(xué),是人工智能中最具智能特征,最前沿的研究領(lǐng)域之一。自20世紀(jì)80年代以來,機器學(xué)習(xí)作為實現(xiàn)人工智能的途徑,在人工智能界引起了廣泛的興趣,特別是近十幾年來,機器學(xué)習(xí)領(lǐng)域的研究工作發(fā)展很快,它已成為人工智能的重要課題之一。機器學(xué)習(xí)不僅在基于知識的系統(tǒng)中得到應(yīng)用,而且在自然語言理解、非單調(diào)推理、機器視覺、模式識別等許多領(lǐng)域也得到了廣泛應(yīng)用。一個系統(tǒng)是否具有學(xué)習(xí)能力已成為是否具有“智能”的一個標(biāo)志。機器學(xué)習(xí)的研究主要分為兩類研究方向:第一類是傳統(tǒng)機器學(xué)習(xí)的研究,該類研究主要是研究學(xué)習(xí)機制,注重探索模擬人的學(xué)習(xí)機制;第二類是大數(shù)據(jù)環(huán)境下機器學(xué)習(xí)的研究,該類研究主要是研究如何有效利用信息,注重從巨量數(shù)據(jù)中獲取隱藏的、有效的、可理解的知識。

自編碼器(autoencoder,AE)是一類在半監(jiān)督學(xué)習(xí)和非監(jiān)督學(xué)習(xí)中使用的人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Networks,ANNs),其功能是通過將輸入信息作為學(xué)習(xí)目標(biāo),對輸入信息進(jìn)行表征學(xué)習(xí)(representation learning)。

自編碼器包含編碼器(encoder)和解碼器(decoder)兩部分。按學(xué)習(xí)范式,自編碼器可以被分為收縮自編碼器(contractive autoencoder)、正則自編碼器(regularized autoencoder)和變分自編碼器(Variational AutoEncoder,VAE),其中前兩者是判別模型、后者是生成模型。按構(gòu)筑類型,自編碼器可以是前饋結(jié)構(gòu)或遞歸結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)。

自編碼器具有一般意義上表征學(xué)習(xí)算法的功能,被應(yīng)用于降維(dimensionality reduction)和異常值檢測(anomaly detection)。包含卷積層構(gòu)筑的自編碼器可被應(yīng)用于計算機視覺問題,包括圖像降噪(image denoising)[3]、神經(jīng)風(fēng)格遷移(neural style transfer)等。

自編碼器在其研究早期是為解決表征學(xué)習(xí)中的“編碼器問題(encoder problem)”,即基于神經(jīng)網(wǎng)絡(luò)的降維問題而提出的聯(lián)結(jié)主義模型的學(xué)習(xí)算法。1985年,David H.Ackley、Geoffrey E.Hinton和Terrence J.Sejnowski在玻爾茲曼機上對自編碼器算法進(jìn)行了首次嘗試,并通過模型權(quán)重對其表征學(xué)習(xí)能力進(jìn)行了討論。在1986年反向傳播算法(Back-Propagation,BP)被正式提出后,自編碼器算法作為BP的實現(xiàn)之一,即“自監(jiān)督的反向傳播(Self-supervised BP)”得到了研究,并在1987年被Jeffrey L.Elman和David Zipser用于語音數(shù)據(jù)的表征學(xué)習(xí)試驗。自編碼器作為一類神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)(包含編碼器和解碼器兩部分)的正式提出,來自1987年Yann LeCun發(fā)表的研究[5]。LeCun(1987)使用多層感知器(Multi-Layer Perceptron,MLP)構(gòu)建了包含編碼器和解碼器的神經(jīng)網(wǎng)絡(luò),并將其用于數(shù)據(jù)降噪。此外,在同一時期,Bourlard and Kamp(1988)使用MLP自編碼器對數(shù)據(jù)降維進(jìn)行的研究也得到了關(guān)注。1994年,Hinton和Richard S.Zemel通過提出“最小描述長度原理(Minimum Description Length principle,MDL)”構(gòu)建了第一個基于自編碼器的生成模型。

AutoEncoder的基本思想是利用神經(jīng)網(wǎng)絡(luò)來做無監(jiān)督學(xué)習(xí),就是把樣本的輸入同時作為神經(jīng)網(wǎng)絡(luò)的輸入和輸出。本質(zhì)上是希望學(xué)習(xí)到輸入樣本的表示(encoding)。早期AutoEncoder的研究主要是數(shù)據(jù)過于稀疏、數(shù)據(jù)高維導(dǎo)致計算復(fù)雜度高。比較早用神經(jīng)網(wǎng)絡(luò)做AutoEncoder的可以追溯到80年代的BPNN和MLP以及當(dāng)時Hinton推崇的RBM。后來到了2000年以后還堅持在做的只剩下Hinton的RBM了。從2000年以后,隨著神經(jīng)網(wǎng)絡(luò)的快速興起,AutoEncoder也得到快速發(fā)展,基本上有幾條線:稀疏AutoEncoder、噪音容忍AutoEncoder、卷積AutoEncoder、變分AutoEncoder。最新的進(jìn)展是結(jié)合對抗思想的對抗AutoEncoder。

稀疏AutoEncoder在學(xué)習(xí)輸入樣本表示的時候可以學(xué)習(xí)到相對比較稀疏的表示結(jié)果,這在Overcomplete AutoEncoder(就是學(xué)習(xí)得到高維表示)方法中尤為重要。代表性人物包括斯坦福大學(xué)的Andrew Ng和蒙特利爾的Yoshua Bengio教授。具體方法就是在原來的損失函數(shù)中加一個控制稀疏化的正則化項,通過控制優(yōu)化過程來實現(xiàn)。

Denoising AutoEncoder的核心思想就是提高Encoder的魯棒性,本質(zhì)上就是避免可能的overfitting。一個辦法是在輸入中加入隨機噪音(比如隨機置0一些輸入,或者隨機把部分輸入變?yōu)閙arked),這些思想后來在BERT等模型中也有廣泛使用;另一個辦法就是結(jié)合正則化的思想,比如在目標(biāo)函數(shù)中加上eEncoder的Jacobian范數(shù)。Jacobian范數(shù)可以讓學(xué)習(xí)到的特征表示更具有差異性。

著名研究者Jurgen Schmidhuber提出了基于卷積網(wǎng)絡(luò)的AutoEncoder以及后來的LSTM AutoEncoder。Max Welling基于變分思想提出變分AutoEncoder方法VAE,這也是一個里程碑式的研究成果。后面很多研究者在這個工作上進(jìn)行了擴(kuò)展,包括info-VAE、beta-VAE和factorVAE等。最近還有人借鑒Ian Goodfellow等人提出的對抗建模思想提出Adversarial AutoEncoder,也取得了很好的效果。這和之前的噪音容忍的AE學(xué)習(xí)也有一定呼應(yīng)。除了上面的思想,就是可以把上面的各種方法stacking起來。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉