美欲開發(fā)防大腦處理器 增強信號處理數(shù)據(jù)分析能力
近日消息,美國政府正試圖用先進計算模仿人類大腦功能,并將此種方法用于復雜信號處理和數(shù)據(jù)分析領(lǐng)域。
美國國防預先研究計劃局(DARPA)已開始征求發(fā)展模仿人類大腦皮層處理器功能的相關(guān)技術(shù)信息(DARPA-SN-13-46)。
DARPA微系統(tǒng)技術(shù)辦公室(MTO)正向工業(yè)界和學術(shù)界征求關(guān)于腦皮層處理技術(shù)和應用的相關(guān)信息,支持DARPA在信號處理和數(shù)據(jù)分析領(lǐng)域的新計劃。
DARPA研究人員表示:該計劃盡管本質(zhì)上并不是神經(jīng)科學計劃,但嚴重依賴于從大腦皮層計算神經(jīng)科學獲取到的多種神經(jīng)模型。
研究人員表示:即使采用最現(xiàn)代的信號和圖像分析系統(tǒng),捕獲高帶寬和充滿噪聲的模糊數(shù)據(jù)流中的復雜時空結(jié)構(gòu)問題仍是重大挑戰(zhàn)。
目前的計算方法幾乎都是計算密集型的,只能從不太大的數(shù)據(jù)中提取有限的空間結(jié)構(gòu)。同時,由于異常探測問題,今天的機器智能甚至面對著更大的挑戰(zhàn),因為這需要識別出正常信號的所有方面,才能判定那些是不相符的信號。
為了加以替代,DARPA正在尋求高性能、低能耗的新方法。今天的方法,包括機器學習、貝葉斯技術(shù)以及圖像知識結(jié)構(gòu),都提供了解決該問題的部分性方案,但卻缺乏更具效率地分析更大、更復雜數(shù)據(jù)集的能力。
DARPA的研究人員表示,今天的計算方法不僅密集型的,而且表現(xiàn)出有限的并行性,對高精度計算嚴重依賴,同時在很多情況下沒有考慮瞬態(tài)數(shù)據(jù)。
一種基于人類和其他哺乳動物大腦的新方法能夠高效捕獲空間和時間結(jié)構(gòu),并能實時解決極度困難的識別問題。
盡管徹底理解大腦皮層如何工作超出了目前的技術(shù)發(fā)展水平,研究人員正在確定一些基本的算法原理,并將其融合到機器學習和神經(jīng)網(wǎng)絡技術(shù)中。
專家表示:受神經(jīng)模型,特別是大腦皮層啟發(fā)的算法,能識別復雜的空間和時間模式,并能適應變化的環(huán)境。這些算法代表著富于前景的數(shù)據(jù)流過濾和處理方法,并有潛力提高數(shù)據(jù)識別的性能和能力。
DARPA要求公司和大學為發(fā)展基于分層暫存記憶(HTM)大腦皮層處理器提供概念和技術(shù),這是一整套大腦皮層處理模型而非一種具體算法。
分層暫存記憶對發(fā)展大腦皮層處理器非常必要,例如對于時空識別、稀疏分布表達的使用、柱狀模塊化結(jié)構(gòu)等方面。在類似大腦皮層的模型中,利用數(shù)據(jù)表達的時空演進來構(gòu)成關(guān)系,實現(xiàn)數(shù)據(jù)處理。
稀疏分布表達構(gòu)成了分層暫存記憶的關(guān)鍵元件,因為他們將意義分配到每一位并根據(jù)重疊特征的相似程度來表達特性。
DARPA研究人員表示,大腦皮層計算模型應能耐受不完整的數(shù)據(jù)并能大規(guī)模并行,極具能量效率和可擴展性。該模型也應具有最低限度的計算精確度需求,并能以超高密度和低能耗方式實現(xiàn)。
對于該計劃,DARPA正在尋求四個方面的信息:算法、硬件、系統(tǒng)和應用。
算法方面應能做概率性的邏輯計算,并使用學習技術(shù)逐漸改善系統(tǒng)能力;硬件方面將涉及受大腦皮層模型啟發(fā)的大規(guī)模并行、自適應、概率算法,大腦皮層模型能高效映射到簡單、低功耗的硬件上;系統(tǒng)部分將實現(xiàn)復雜的關(guān)鍵任務應用;應用部分將包括視覺和圖像系統(tǒng)、傳感器融合、機器人控制以及其他復雜的信號處理應用。
向DARPA提交信息的郵件應在2013年9月25日之前發(fā)出。