當(dāng)前位置:首頁 > 公眾號精選 > Techsugar
[導(dǎo)讀]我在NVIDIA研究深度學(xué)習(xí)已達四年之久,作為一名解決方案架構(gòu)師,專門研究深度學(xué)習(xí)相關(guān)技術(shù),為客戶提供可能的解決方案,并加以實施。

我在NVIDIA研究深度學(xué)習(xí)已達四年之久,作為一名解決方案架構(gòu)師,專門研究深度學(xué)習(xí)相關(guān)技術(shù),為客戶提供可能的解決方案,并加以實施。

在我加入NVIDIA時,人工智能已經(jīng)成為一個非常普遍的應(yīng)用術(shù)語,但經(jīng)常被模棱兩可的使用,甚至錯誤的被描述為深度學(xué)習(xí)和機器學(xué)習(xí)。我想從一些簡單的定義出發(fā),去一步步深入解讀其中含義,不足之處,以及采用新構(gòu)架創(chuàng)建更完整能力“AI”的一些步驟。

機器學(xué)習(xí)——將函數(shù)與數(shù)據(jù)進行擬合,并使用這些函數(shù)對數(shù)據(jù)進行分組或?qū)ξ磥頂?shù)據(jù)進行預(yù)測。(抱歉,我大大簡化了概念。)

深度學(xué)習(xí)——將函數(shù)與數(shù)據(jù)進行擬合,如下圖所示,函數(shù)就是節(jié)點層,用于和前后節(jié)點相連,其中擬合的參數(shù)是這些連接節(jié)點的權(quán)重。


深度學(xué)習(xí)就是如今經(jīng)常被成為AI的概念,但實際上只是非常精細(xì)的模式識別和統(tǒng)計建模。最常見的技術(shù)/算法是卷積神經(jīng)網(wǎng)絡(luò)(CNNs)、遞歸神經(jīng)網(wǎng)絡(luò)(RNNs)和強化學(xué)習(xí)(RL)。


卷積神經(jīng)網(wǎng)絡(luò)(CNNs)具有分層結(jié)構(gòu),通過(訓(xùn)練過的)卷積濾波器將圖像采樣到一個低分辨率的映射中,該映射表示每個點上卷積運算的值。從圖像中來看,它是從高分辨像素到特征(邊緣、圓形、……),再到粗糙特征(臉上的鼻子、眼睛、嘴唇……),然后再到能夠識別圖像內(nèi)容的完整連接層。CNNs很酷的一點是,其卷積濾波器是隨機初始化的,當(dāng)你訓(xùn)練網(wǎng)絡(luò)時,你實際是在訓(xùn)練卷積濾波器。幾十年來,計算機視覺研究人員一直在手工制作類似的濾波器,但無法像CNNs那樣的精準(zhǔn)結(jié)果。此外,CNN的輸出可以是2D圖而不是單個值,從而為我們提供圖像分割。CNNs還可以用于許多其他類型的1D、2D甚至3D數(shù)據(jù)。



遞歸神經(jīng)網(wǎng)絡(luò)(RNN)適用于順序或時間序列數(shù)據(jù)?;旧?,RNN中的每個“神經(jīng)”節(jié)點都是存儲門,通常是LSTM(長短期記憶)或者長短期的存儲單元。當(dāng)他們被連接到層神經(jīng)網(wǎng)絡(luò)時,RNN將狀態(tài)在自身網(wǎng)絡(luò)中循環(huán)傳遞,因此可以接受更廣泛的時間序列結(jié)構(gòu)輸入。比如:語言處理或者翻譯,以及信號處理,文本到語音,語音到文本……



強化學(xué)習(xí)是第三種主要的深度學(xué)習(xí)(DL)方法,強調(diào)如何基于環(huán)境而行動,以取得最大化的預(yù)期利益。一個例子就是迷宮,其中每個單元都存在各自的“狀態(tài)”,擁有四個移動的方向,在每個單元格某方向的移動的概率來形成策略。


通過反復(fù)運行狀態(tài)和可能的操作,并獎勵產(chǎn)生良好結(jié)果的操作序列(通過增加策略中這些操作的概率),懲罰產(chǎn)生負(fù)面結(jié)果的操作(降低概率)。隨著時間的推移,你會得到一個最優(yōu)的策略,它有最高的可能性來取得一個成功的結(jié)果。通常在訓(xùn)練的時候,你會對更早的行為的懲罰/獎勵打折扣。



在我們的迷宮事例中,先允許代理穿過迷宮,選擇一個方向,使用已有的概率策略,當(dāng)它達到死胡同時,懲罰它選擇的路徑(降低每個單元移動該方向的概率)。如果找到了出口,我們則增加每個單元移動方向的概率作為獎勵。隨著時間的推移,代理通過學(xué)習(xí),找到了最快方式。強化學(xué)習(xí)的這種變化就是AlphaGo AI和Atari電子游戲AI的核心。


最后值得關(guān)注的是GANs(生成對抗網(wǎng)絡(luò)),它更多的是一門技術(shù)而不是架構(gòu)。目前它與CNNs一起用于制作圖像鑒別器和發(fā)生器。鑒別器是經(jīng)過訓(xùn)練以識別圖像的CNN,生成器是一個反向網(wǎng)絡(luò),它采用隨機種子生成圖像。鑒別器評估發(fā)生器的輸出并向發(fā)生器發(fā)送關(guān)于如何改進的信號,發(fā)生器依次向鑒別器發(fā)送信號以提高其準(zhǔn)確性,在零和博弈游戲(zero-sum game)中反復(fù)往返,直到兩者收斂到最佳質(zhì)量。這是一種向神經(jīng)系統(tǒng)提供自我強化反饋的方法。


當(dāng)然,所有這些方法以及其他方法都有豐富的變化和組合,但是一旦你嘗試將它們用于特定問題之外的問題時,這些技術(shù)有時不會有效。對于實際問題,即使你可以擴展和重新設(shè)計網(wǎng)絡(luò)拓?fù)洳ζ溥M行調(diào)整,它們有時也表現(xiàn)不加。往往我們只是沒有足夠的數(shù)據(jù)來訓(xùn)練它們,以使得它們在部署中更加精準(zhǔn)。


同樣,許多應(yīng)用需要將多種DL技術(shù)結(jié)合在一起并找到融合它們的方法。一個簡單的例子就是視頻標(biāo)記——你通過CNN傳送視頻幀,在頂部有一個RNN來捕捉這些視頻中的那些隨著和時間有關(guān)的行為。曾經(jīng)我?guī)椭芯咳藛T使用這種技術(shù)來識別四肢癱瘓者的面部表情,向他們輪椅和機器假肢發(fā)出命令,每個指令對應(yīng)不同的面部表情/手勢。這起到了一定的效果,但當(dāng)你擴大規(guī)模時,開發(fā)和訓(xùn)練它可能會花費更多時間,且變得非常棘手。因為你現(xiàn)在必須調(diào)整交織在一起的兩種不同類型的DL網(wǎng)絡(luò),有時很難知道這些調(diào)整會產(chǎn)生什么影響。


現(xiàn)在想象一下,你有多個CNN/RNN網(wǎng)絡(luò)提供輸出,一個深度強化學(xué)習(xí)引擎對輸入狀態(tài)做出決策,然后驅(qū)動生成網(wǎng)絡(luò)產(chǎn)生輸出。其實是很多特定的DL技術(shù)組合在一起來完成一組任務(wù)。你可以說這是“魔鬼式”的瘋狂調(diào)參。它會奏效嗎?我不知道,如此一來,它將耗費大量資金和時間才開始工作,并且不確定它是否能夠很好的訓(xùn)練,甚至在現(xiàn)實條件下進行訓(xùn)練。


我個人觀點是,我們目前的DL技術(shù)各自代表一個子集,用來簡化大腦網(wǎng)絡(luò)和神經(jīng)系統(tǒng)的工作。雖然我們稱之為“神經(jīng)”,但實際上并不是,它們都是專門用于特定的任務(wù)。


事實上,大多訓(xùn)練DL或者人工智能的人都沒有意識到,如今深度學(xué)習(xí)中的“神經(jīng)網(wǎng)絡(luò)”和“神經(jīng)元”只是更大、更豐富的合成神經(jīng)元、神經(jīng)網(wǎng)絡(luò)和方法。我們今天在DL中使用的大多數(shù)人分層我網(wǎng)絡(luò)和CNN屬于前饋神經(jīng)網(wǎng)絡(luò)的較小一部分,只是簡單地對每個節(jié)點處進行加權(quán)輸入求和,應(yīng)用簡單的傳遞函數(shù),將結(jié)果傳遞給下一層。


這并不是大腦處理工作的方式,甚至RNN和強化學(xué)習(xí)也沒有給我們真正的人工智能,只是將非常大和復(fù)雜函數(shù)的參數(shù)擬合到大量數(shù)據(jù),并使用統(tǒng)計數(shù)據(jù)找到模式并做出決定。


上圖頂部和左側(cè)的方法,特別是SNNs(Spiking Neural Networks),給出了一個更準(zhǔn)確的模型,來運行真正的神經(jīng)元工作方式。就像“數(shù)積分-火-模型”、Izhikevich脈沖神經(jīng)元模型那樣高效。像“Hodgkin-Huxley”一樣接近模擬生物神經(jīng)元的行為。



在真實的神經(jīng)元中,時域信號脈沖沿著樹突傳播,然后獨立到達神經(jīng)元體,并在其內(nèi)部的時間和空間中被整合(一些激發(fā)、一些抑制)。當(dāng)神經(jīng)元體被觸發(fā)時,它就會在軸突上產(chǎn)生一系列依賴時間的脈沖,這些脈沖在分支時分裂,并需要時間到達突觸。當(dāng)化學(xué)神經(jīng)遞質(zhì)信號經(jīng)過突觸并最終觸發(fā)突觸后樹突中的信號時,突觸本身就表現(xiàn)出非線性、延遲、依賴時間依賴的整合。在這一過程中,如果兩邊的神經(jīng)元在一定的時間間隔內(nèi)一起點燃,也就是學(xué)習(xí)過程中的突觸即學(xué)習(xí),即學(xué)習(xí),就會得到加強。我們可能永遠(yuǎn)無法在硬件或軟件中完全復(fù)制真實生物神經(jīng)元的所有電化學(xué)過程,但是我們可以尋找足夠復(fù)雜的模型來代表我們的尖峰人工神經(jīng)網(wǎng)絡(luò)中需要的許多有用行為。


這將讓我們更像人工智能,因為真正的大腦從信號通過神經(jīng)元、軸突、突觸和樹突的傳遞,獲得了更多的計算、感官處理和身體控制能力,從而在復(fù)雜的依賴時間的電路中穿行,這種復(fù)雜的電路甚至可以有反饋回路,以制造定時器或振蕩器等電路,類似于可重復(fù)的級聯(lián)模式激活的神經(jīng)回路,向肌肉/致動信號的群體發(fā)送特定的依賴模式。這些網(wǎng)絡(luò)也是通過直接加強神經(jīng)元之間的聯(lián)系來學(xué)習(xí)的,這些被稱為Hebbian學(xué)習(xí)。為了進行更復(fù)雜的人工智能和決策,它們比我們在上面的例子中使用的CNNs、靜態(tài)的RNN甚至是深度強化學(xué)習(xí)都要強大得多。


但是有一個巨大的缺點——目前還沒有一種方法可以把這類網(wǎng)絡(luò)安裝到數(shù)據(jù)上來“訓(xùn)練”它們。沒有反向傳播,也沒有調(diào)整神經(jīng)元之間突觸權(quán)重的梯度下降操作。突觸只是增強或減弱,因此尖峰神經(jīng)網(wǎng)絡(luò)在運作的過程中學(xué)習(xí),使用Hebbian學(xué)習(xí)來進行操作,這在實踐上可能有效訓(xùn)練我們的合成網(wǎng)絡(luò),因為他們首先必須結(jié)構(gòu)正確,以達到一個有用的解決方案。這是一個正在進行的研究領(lǐng)域,在這一領(lǐng)域的突破可能是非常重要的。


我認(rèn)為,如果我們可以開始解決這些問題,走向更加功能性更強的神經(jīng)結(jié)構(gòu),更加充分地展示大腦、神經(jīng)系統(tǒng)和真正的神經(jīng)元的工作和學(xué)習(xí)方式,我們就可以開始將今天使用的那種單一的、更靈活的深度學(xué)習(xí)方法整合到這些功能更強大和靈活的架構(gòu)中,這些架構(gòu)以更優(yōu)雅的設(shè)計來處理多種功能。而且通過這些模型,我們將開啟新的神經(jīng)計算形式,我們將能夠?qū)⑺鼈儜?yīng)用到計算機視覺、機器人運動控制、聽覺、言語,甚至是更像人腦的認(rèn)知等任務(wù)中去。


簡單總結(jié)一句話:“我們還沒有達到人類層面的認(rèn)知?!?/strong>


本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉