當(dāng)前位置:首頁(yè) > 智能硬件 > 智能硬件
[導(dǎo)讀]雖然 GPU 的引入已經(jīng)讓人工智能領(lǐng)域?qū)崿F(xiàn)了飛速發(fā)展,但這些芯片仍要將處理和存儲(chǔ)分開,這意味著在兩者之間傳遞數(shù)據(jù)需要耗費(fèi)大量的時(shí)間和精力。這促使人們開始研究新的存儲(chǔ)技術(shù),這種新技術(shù)可以在同一位置存儲(chǔ)和處理這些權(quán)重?cái)?shù)據(jù),從而提高速度和能效。

用 GPU 運(yùn)行神經(jīng)網(wǎng)絡(luò)的方法近年來已經(jīng)為人工智能領(lǐng)域帶來了驚人的發(fā)展,然而兩者的組合其實(shí)并不完美。IBM 研究人員希望專門為神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)一種新芯片,使前者運(yùn)行能夠更快、更有效。

直到本世紀(jì)初,研究人員才發(fā)現(xiàn)為電子游戲設(shè)計(jì)的圖形處理單元 ( GPU ) 可以被用作硬件加速器,以運(yùn)行更大的神經(jīng)網(wǎng)絡(luò)。

因?yàn)檫@些芯片可以執(zhí)行大量并行運(yùn)算,而無需像傳統(tǒng)的 CPU 那樣按順序執(zhí)行。這對(duì)于同時(shí)計(jì)算數(shù)百個(gè)神經(jīng)元的權(quán)重來說特別有用,而今的深度學(xué)習(xí)網(wǎng)絡(luò)則正是由大量神經(jīng)元構(gòu)成的。

雖然 GPU 的引入已經(jīng)讓人工智能領(lǐng)域?qū)崿F(xiàn)了飛速發(fā)展,但這些芯片仍要將處理和存儲(chǔ)分開,這意味著在兩者之間傳遞數(shù)據(jù)需要耗費(fèi)大量的時(shí)間和精力。這促使人們開始研究新的存儲(chǔ)技術(shù),這種新技術(shù)可以在同一位置存儲(chǔ)和處理這些權(quán)重?cái)?shù)據(jù),從而提高速度和能效。

這種新型存儲(chǔ)設(shè)備通過調(diào)整其電阻水平來以模擬形式存儲(chǔ)數(shù)據(jù),即以連續(xù)規(guī)模存儲(chǔ)數(shù)據(jù),而不是以數(shù)字存儲(chǔ)器的二進(jìn)制 1 和 0。而且因?yàn)樾畔⒋鎯?chǔ)在存儲(chǔ)單元的電導(dǎo)中,所以可以通過簡(jiǎn)單地讓電壓通過所有存儲(chǔ)單元并讓系統(tǒng)通過物理方法來執(zhí)行計(jì)算。

但這些設(shè)備中固有的物理缺陷會(huì)導(dǎo)致行為的不一致,這意味著目前使用這種方式來訓(xùn)練神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)的分類精確度明顯低于使用 GPU 進(jìn)行計(jì)算。

負(fù)責(zé)該項(xiàng)目的 IBM Research 博士后研究員 Stefano Ambrogio 在此前接受 Singularity Hub 采訪時(shí)說:“我們可以在一個(gè)比 GPU 更快的系統(tǒng)上進(jìn)行訓(xùn)練,但如果訓(xùn)練操作不夠精確,那就沒用。目前為止,還沒有證據(jù)表明使用這些新型設(shè)備和使用 GPU 一樣精確。”

但隨著研究的進(jìn)展,新技術(shù)展現(xiàn)了實(shí)力。在上周發(fā)表在《自然》雜志上的一篇論文中(Equivalent-accuracy accelerated neural-network training using analogue memory),Ambrogio 和他的同事們描述了如何利用全新的模擬存儲(chǔ)器和更傳統(tǒng)的電子組件組合來制造一個(gè)芯片,該芯片在運(yùn)行速度更快、能耗更少的情況下與 GPU 的精確度相匹配。

這些新的存儲(chǔ)技術(shù)難以訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)的原因是,這個(gè)過程需要對(duì)每個(gè)神經(jīng)元的權(quán)重進(jìn)行上下數(shù)千次的刺激,直到網(wǎng)絡(luò)完全對(duì)齊。Ambrogio 說,改變這些設(shè)備的電阻需要重新配置它們的原子結(jié)構(gòu),而這個(gè)過程每次都不相同。刺激的力度也并不總是完全相同,這導(dǎo)致神經(jīng)元權(quán)重不精確的調(diào)節(jié)。

研究人員創(chuàng)造了“突觸單元”來解決這個(gè)問題,每個(gè)單元都對(duì)應(yīng)網(wǎng)絡(luò)中的單個(gè)神經(jīng)元,既有長(zhǎng)期記憶,也有短期記憶。每個(gè)單元由一對(duì)相變存儲(chǔ)器 ( PCM ) 單元和三個(gè)晶體管和一個(gè)電容器的組合構(gòu)成,相變存儲(chǔ)器單元將重量數(shù)據(jù)存儲(chǔ)在其電阻中,電容器將重量數(shù)據(jù)存儲(chǔ)為電荷。

PCM 是一種“非易失性存儲(chǔ)器”,意味著即使沒有外部電源,它也保留存儲(chǔ)的信息,而電容器是“易失性的”,因此只能保持其電荷幾毫秒。但電容器沒有 PCM 器件的可變性,因此可以快速準(zhǔn)確地編程。

當(dāng)神經(jīng)網(wǎng)絡(luò)經(jīng)過圖片訓(xùn)練后可以進(jìn)行分類任務(wù)時(shí),只有電容器權(quán)重被更新了。在觀察了數(shù)千張圖片之后,權(quán)重會(huì)被傳輸?shù)?PCM 單元以長(zhǎng)期存儲(chǔ)。

PCM 的可變性意味著權(quán)重?cái)?shù)據(jù)的傳遞可能仍然會(huì)存在錯(cuò)誤,但因?yàn)閱卧皇桥紶柛?,因此在不增加太多?fù)雜性的情況下系統(tǒng)可以再次檢查導(dǎo)率。“如果直接在 PCM 單元上進(jìn)行訓(xùn)練,就不可行了。”Ambrogio 表示。

為了測(cè)試新設(shè)備,研究人員在一系列流行的圖像識(shí)別基準(zhǔn)中訓(xùn)練了他們的神經(jīng)網(wǎng)絡(luò),并實(shí)現(xiàn)了與谷歌的神經(jīng)網(wǎng)絡(luò)框架 TensorFlow 相媲美的精確度。但更重要的是,他們預(yù)測(cè)最終構(gòu)建出的芯片可以達(dá)到 GPU 280 倍的能源效率,并在同樣平方毫米面積上實(shí)現(xiàn) 100 倍的算力。

值得注意的是,研究人員目前還沒有構(gòu)建出完整的芯片。在使用 PCM 單元進(jìn)行測(cè)試時(shí),其他硬件組件是由計(jì)算機(jī)模擬的。Ambrogio 表示研究人員希望在花費(fèi)大量精力構(gòu)建完整芯片之前檢查方案的可行性。

他們使用了真實(shí)的 PCM 設(shè)備——因?yàn)檫@方面的模擬不甚可靠,而其他組件的模擬技術(shù)已經(jīng)成熟。研究人員對(duì)基于這種設(shè)計(jì)構(gòu)建完整芯片非常有信心。

“它目前只能在全連接神經(jīng)網(wǎng)絡(luò)上與 GPU 競(jìng)爭(zhēng),在這種網(wǎng)絡(luò)中,每個(gè)神經(jīng)元都連接到前一層的相應(yīng)神經(jīng)元上,”Ambrogio 表示。“在實(shí)踐中,很多神經(jīng)網(wǎng)絡(luò)并不是全連接的,或者只有部分層是全連接的。”

交叉開關(guān)非易失性存儲(chǔ)器陣列可以通過在數(shù)據(jù)位置執(zhí)行計(jì)算來加速全連接神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。圖片來源:IBM Research

 

Ambrogio 認(rèn)為最終的芯片會(huì)被設(shè)計(jì)為與 GPU 協(xié)同工作的形式,以處理全連接層的計(jì)算,同時(shí)執(zhí)行其他任務(wù)。他還認(rèn)為處理全連接層的有效方法可以被擴(kuò)展到其它更廣泛的領(lǐng)域。

這種專用芯片可以讓哪些設(shè)想成為可能?

Ambrogio 表示主要有兩種方向的應(yīng)用:將 AI 引入個(gè)人設(shè)備,以及提高數(shù)據(jù)中心的運(yùn)行效率。其中后者是科技巨頭關(guān)注的重點(diǎn)——這些公司的服務(wù)器運(yùn)營(yíng)成本一直居高不下。

在個(gè)人設(shè)備中直接實(shí)現(xiàn)人工智能可以免去將數(shù)據(jù)傳向云端造成的隱私性顧慮,但 Ambrogio 認(rèn)為其更具吸引力的優(yōu)勢(shì)在于創(chuàng)造個(gè)性化的 AI。

“在未來,神經(jīng)網(wǎng)絡(luò)應(yīng)用在你的手機(jī)和自動(dòng)駕駛汽車中也可以持續(xù)地學(xué)習(xí)經(jīng)驗(yàn),”他說道。“想象一下:你的電話可以和你交談,并且可以識(shí)別你的聲音并進(jìn)行個(gè)性化;或者你的汽車可以根據(jù)你的駕駛習(xí)慣進(jìn)行個(gè)性化調(diào)整。”

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉