當前位置:首頁 > 嵌入式 > 嵌入式硬件
[導讀]隨著基于超級網(wǎng)絡的NAS出現(xiàn),NAS的成本已經(jīng)在下降。因此,現(xiàn)在可能是時候讓硬件供貨商開始尋找自己的優(yōu)化DNN。當被問及DeepScale是否計劃透過合作、授權(quán)或為AI硬件公司開發(fā)

隨著基于超級網(wǎng)絡的NAS出現(xiàn),NAS的成本已經(jīng)在下降。因此,現(xiàn)在可能是時候讓硬件供貨商開始尋找自己的優(yōu)化DNN。當被問及DeepScale是否計劃透過合作、授權(quán)或為AI硬件公司開發(fā)優(yōu)化DNN來填補這一缺口時,Iandola說,“我們還沒有真正考慮過這個問題。”

為了讓AI加速器在最短延遲內(nèi)達到最佳精準度,特別是在自動駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專家認為這種野蠻處理方式并不可持續(xù)……

為了讓人工智能(AI)加速器在最短延遲內(nèi)達到最佳精準度,特別是在自動駕駛車(AV)中,TFLOP(兆次浮點運算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場競賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動駕駛(FSD)計算機芯片,以及NXP-Kalray芯片。

然而,有專家認為這種野蠻處理方式并不可持續(xù)。在EE Times的一次獨家專訪中,DeepScale執(zhí)行長Forrest Iandola提出其不可持續(xù)的理由,是因為AI硬件設計師所持有的許多常見假設已經(jīng)過時。隨著AI應用日益增多,AI供貨商從中積累更多的經(jīng)驗,這導致不同的AI任務開始需求不同的技術(shù)方法。如果事實的確如此,AI使用者購買AI技術(shù)的方式將會改變,供貨商也必將做出回應。

DeepScale執(zhí)行長Forrest Iandola

Iandola表示,就拿神經(jīng)網(wǎng)絡架構(gòu)搜尋(NAS)為例,其快速發(fā)展不僅加快優(yōu)化深度神經(jīng)網(wǎng)絡(DNN)的搜尋過程,并降低這一過程的成本。他相信有一種方法可以“在目標任務和目標運算平臺上建立最低延遲、最高精準度的DNN,”而不是依賴于更大的芯片來處理所有的AI任務。

Iandola設想未來AI芯片或傳感器系統(tǒng)(如計算機視覺、雷達或光達)供貨商不僅提供硬件,而且還會提供自己的高速、高效的DNN——為應用而設計的DNN架構(gòu)。任何供貨商都會為不同的運算平臺匹配各自所需的DNN,如果事實真是如此,那AI競賽中的所有賭注都將失效。

需要明確的是,目前無論是芯片公司還是傳感器供貨商都沒有提出上述前景。甚至很少有人在特定硬件上運作有針對性AI任務的可能性。

Iandola及其DeepScale團隊最近設計了一系列DNN模型,稱為“SqueezeNAS”。在最近的一篇報告中,他們聲稱,當在目標平臺上搜尋延遲時,SqueezeNAS“可以建立更快、更準確的模型”。這篇報告推翻了AI小區(qū)先前對NAS、乘積累加(MAC)運算和將ImageNet精確度應用于目標任務時所做的一些假設。

DeepScale于2015年由Iandola和Kurt Keutzer教授共同創(chuàng)立,是一家位于加州山景城的新創(chuàng)公司,致力于開發(fā)“微型DNN”。兩位聯(lián)合創(chuàng)始人曾在加州大學柏克萊大學分校共事,DeepScale因其快速高效的DNN研究而在科學界備受推崇。

手工設計(Manual designs)

要想真正理解機器學習在計算機視覺方面的最新進展的意義,需要了解其發(fā)展歷史。

還記得AlexNet網(wǎng)絡結(jié)構(gòu)模型在2012年贏得ImageNet影像分類競賽嗎?這為研究人員打開了競爭的大門,讓他們專注于ImageNet研究,并尋找能夠在計算機視覺任務上達到最高精準度的DNN,以此開展競爭。

ImageNet分類錯誤統(tǒng)計。(數(shù)據(jù)源:ResearchGate)

通常,這些計算機視覺研究人員依靠專家工程師,他們會手工設計快速且高精準度的DNN架構(gòu)。

從2012年到2016年,他們提高了計算機視覺的準確性,但都是透過大幅增加執(zhí)行DNN所需資源來實現(xiàn)這一目標。Iandola解釋,例如,贏得2014年ImageNet比賽冠軍的VGGNet,其使用的運算量是AlexNet的10倍,參數(shù)是AlexNet的2倍。

到2016年,學術(shù)研究界發(fā)現(xiàn)利用增加DNN的資源需求來提高準確性“不可持續(xù)”。SqueezeNet便是研究人員尋找的眾多替代方案之一,由Iandola及其同事在2016年發(fā)表,它展示出在微小預算(低于5MB)參數(shù)下ImageNet的“合理的準確性”。

Squeezenet引發(fā)了兩個重大變化。相對于SqueezeNet和其他早期運算而言,MobileNetV1能夠大幅度減少MAC的數(shù)量,Shufflenetv1是為行動端CPU實現(xiàn)低延遲而優(yōu)化的DNN。

利用機器學習改善機器學習

如前所述,所有這些先進DNN都是透過手工設計和調(diào)整神經(jīng)網(wǎng)絡架構(gòu)開發(fā)而成。由于手工流程需要專業(yè)的工程師大量的除錯,這很快就成為一個成本太高、耗時太久的提議。

因而基于機器學習,實現(xiàn)人工神經(jīng)網(wǎng)絡設計自動化的理念,NAS應運而生。NAS是一種搜尋最佳神經(jīng)網(wǎng)絡架構(gòu)的算法,并改變了AI格局。Iandola稱,“到2018年,NAS已經(jīng)開始構(gòu)建能夠以較低延遲運行的DNN,并且比以前手工設計的DNN產(chǎn)生更高的準確性。”

強化學習(Reinforcement Learning)

隨后,計算機視覺界開始使用基于機器學習的強化方法——強化學習。換句話說,“機器學習得到回饋來改善機器學習,”Iandola解釋。在基于強化學習的NAS下,未經(jīng)訓練的強化學習獲得建議,指定層數(shù)和參數(shù)來訓練DNN架構(gòu)。一旦對DNN進行訓練,訓練運作的結(jié)果將作為回饋,從而推動強化學習執(zhí)行更多DNN來展開訓練。

經(jīng)證明,基于強化學習的NAS是有效的。Google MnasNet就是一個很好的例子,它在ImageNet延遲和準確性方面都優(yōu)于ShuffleNet。但它也有一個關(guān)鍵的弱點:成本太高?;趶娀瘜W習的搜尋通常需要數(shù)千個GPU天(GPU day),以訓練數(shù)百乃至數(shù)千個不同的DNN,才能生成理想的設計。“Google負擔得起,”Iandola表示,但大多數(shù)其他公司負擔不起。

現(xiàn)實地說,一個基于強化學習的NAS要訓練一千個DNN,每個DNN通常需要一個GPU天??紤]到目前亞馬遜(Amazon)云端服務平臺的價格,Iandola估計,一個使用基于強化學習的NAS搜尋所花費的云端運算時間可能耗資高達7萬美元。

超級網(wǎng)絡(Supernetwork)

在這種情況下,去年底出現(xiàn)了一種新的NAS類型,稱為基于“超級網(wǎng)絡”的搜尋。它的典型代表包括FBNet(Facebook柏克萊網(wǎng)絡)和SqueezNet。

 

 

搜尋時間減少100倍。(數(shù)據(jù)源:DeepScale)

Iandola解釋:“超級網(wǎng)絡采用一步到位的方法,而不是培訓1,000個獨立的DNN。”例如,一個DNN有20個模塊,每個模塊有13個選項。若為每個模塊選擇一個最喜歡的選項,“你正在以10個DNN訓練運作花費為代價,一次性訓練一個匯集了千兆種DNN設計的DNN,”Iandola解釋。

結(jié)果顯示,基于超級網(wǎng)絡的NAS可以在10個GPU天的搜尋時間內(nèi)建立DNN,其延遲和準確性優(yōu)于MnasNet。“這讓搜尋成本從7萬多美元減少到大約700美元的亞馬遜云端服務GPU時間,”Iandola說。

“10個GPU天”的搜尋時間相當于在一臺如衣柜般大小的8 GPU機器上花費一天的時間,”Iandola解釋。

 

 

基于強化學習與基于超級網(wǎng)絡的NAS比較。(數(shù)據(jù)源:DeepScale)

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務中斷的風險,如企業(yè)系統(tǒng)復雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務引領增長 以科技創(chuàng)新為引領,提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉