當(dāng)前位置:首頁 > 嵌入式 > 嵌入式動(dòng)態(tài)
[導(dǎo)讀]隨著深度學(xué)習(xí)應(yīng)用不斷進(jìn)入商用化,各類框架在服務(wù)器端上的部署正在增多,可擴(kuò)展性正逐漸成為性能的重要指標(biāo)。香港浸會(huì)大學(xué)褚曉文團(tuán)隊(duì)近日提交的論文對四種可擴(kuò)展框架進(jìn)行了橫向評測(Caffe-MPI、CNTK、MXNet 與 TensorFlow)。該研究不僅對各類深度學(xué)習(xí)框架的可擴(kuò)展性做出了對比,也對高性能服務(wù)器的優(yōu)化提供了方向。

隨著深度學(xué)習(xí)應(yīng)用不斷進(jìn)入商用化,各類框架在服務(wù)器端上的部署正在增多,可擴(kuò)展性正逐漸成為性能的重要指標(biāo)。香港浸會(huì)大學(xué)褚曉文團(tuán)隊(duì)近日提交的論文對四種可擴(kuò)展框架進(jìn)行了橫向評測(Caffe-MPI、CNTK、MXNet 與 TensorFlow)。該研究不僅對各類深度學(xué)習(xí)框架的可擴(kuò)展性做出了對比,也對高性能服務(wù)器的優(yōu)化提供了方向。

近年來,深度學(xué)習(xí)(DL)技術(shù)在許多 AI 應(yīng)用當(dāng)中取得了巨大成功。在獲得大量數(shù)據(jù)的情況下,深度神經(jīng)網(wǎng)絡(luò)(DNN)能夠很好地學(xué)習(xí)特征表示。但是,深度神經(jīng)網(wǎng)絡(luò)和大規(guī)模數(shù)據(jù)有著很高的計(jì)算資源要求。幸運(yùn)的是,一方面,硬件加速器例如 GPU,F(xiàn)PGA 和 Intel Xeon Phi 可減少模型訓(xùn)練時(shí)間。另一方面,近期的一些研究已經(jīng)證明,具有非常大的 mini-batch 的 DNN 可以很好地收斂到局部最小值。這對于利用大量處理器或集群而言是非常重要的。單個(gè)加速器的計(jì)算資源(比如計(jì)算單元和內(nèi)存)有限,無法處理大規(guī)模神經(jīng)網(wǎng)絡(luò)。因此,人們提出了并行訓(xùn)練算法以解決這個(gè)問題,比如模型并行化和數(shù)據(jù)并行化。這也讓科技巨頭們在云服務(wù)中部署可擴(kuò)展深度學(xué)習(xí)工具成為可能。亞馬遜采用 MXNet 作為云服務(wù) AWS 的主要深度學(xué)習(xí)框架,谷歌采取 TensorFlow 為谷歌云提供支持,而微軟為微軟云開發(fā)了 CNTK。此外,浪潮集團(tuán)開發(fā)了 Caffe-MPI 以支持 HPC 的分布式部署。

在英偉達(dá)高性能 DNN 庫 cuDNN 的幫助下,CNTK,MXNet 和 TensorFlow 除了能在單 GPU 上實(shí)現(xiàn)高吞吐率之外,還能在多個(gè) GPU 和多種機(jī)器之間實(shí)現(xiàn)良好的可擴(kuò)展性。這些框架為開發(fā)者提供了一個(gè)開發(fā) DNN 的簡便方法。此外,嘗試相關(guān)算法優(yōu)化,通過使用多核 CPU、眾核 GPU、 多 GPU 和集群等硬件來實(shí)現(xiàn)高吞吐率。但是,由于軟件開發(fā)商的實(shí)施方法不盡相同,即使在同一個(gè)硬件平臺(tái)上訓(xùn)練相同的 DNN,這些工具的性能表現(xiàn)也不盡相同。研究者已經(jīng)對各種工具在不同 DNN 和不同硬件環(huán)境下進(jìn)行了評估,但是深度學(xué)習(xí)框架和 GPU 的升級太過頻繁,導(dǎo)致這些基準(zhǔn)無法反映 GPU 和軟件的最新性能。另外,多 GPU 和多機(jī)平臺(tái)的可擴(kuò)展性還沒有得到很好的研究,但這是計(jì)算機(jī)集群最重要的性能指標(biāo)之一。

本文擴(kuò)展了我們之前的工作,嘗試評估 4 個(gè)分布式深度學(xué)習(xí)框架(即 Caffe-MPI、CNTK、MXNet 和 TensorFlow)的性能。我們使用四臺(tái)由 56 Gb 的 InfiniBand 架構(gòu)網(wǎng)絡(luò)連接的服務(wù)器,其中每一個(gè)都配備了 4 塊 NVIDIA Tesla P40,以測試包括單 GPU,單機(jī)多 GPU,和多機(jī)在內(nèi)的 CNN 架構(gòu)的訓(xùn)練速度。我們首先測試了隨機(jī)梯度下降(SGD)優(yōu)化的運(yùn)行性能,然后關(guān)注跨多 GPU 和多機(jī)的同步 SGD(S-SGD)的性能,以分析其細(xì)節(jié)。我們的主要研究發(fā)現(xiàn)如下:

對于相對淺層的 CNN(例如 AlexNet),加載大量訓(xùn)練數(shù)據(jù)可能是使用較大 mini-batch 值和高速 GPU 的潛在瓶頸。有效的數(shù)據(jù)預(yù)處理可以降低這一影響。

為了更好地利用 cuDNN,我們應(yīng)該考慮自動(dòng)調(diào)優(yōu)以及輸入數(shù)據(jù)的格式(例如 NCWH,NWHC)。CNTK 和 MXNet 都對外顯露了 cuDNN 的自動(dòng)調(diào)優(yōu)配置,這都有利于在前向傳播和反向傳播中獲得更高的性能。

在擁有 multiple GPU 的 S-SGD 當(dāng)中,CNTK 不會(huì)隱藏梯度通信的開銷。但是,MXNet 和 TensorFlow 將當(dāng)前層的梯度聚合與前一層的梯度計(jì)算并行化處理。通過隱藏梯度通信的開銷,擴(kuò)展性能會(huì)更好。

所在四個(gè)高吞吐量的密集 GPU 服務(wù)器上,所有框架的擴(kuò)展結(jié)果都不是很好。通過 56Gbps 網(wǎng)絡(luò)接口的節(jié)點(diǎn)間梯度通信比通過 PCIe 的節(jié)點(diǎn)內(nèi)通信慢得多。

 

深度學(xué)習(xí)框架已經(jīng)被廣泛部署于 GPU 服務(wù)器上,已為學(xué)術(shù)界和工業(yè)界的深度學(xué)習(xí)應(yīng)用提供支持。在深度學(xué)習(xí)網(wǎng)絡(luò)(DNN)的訓(xùn)練中,有許多標(biāo)準(zhǔn)化過程或算法,比如卷積運(yùn)算和隨機(jī)梯度下降(SGD)。但是,即使是在相同的 GPU 硬件運(yùn)行相同的深度學(xué)習(xí)模型,不同架構(gòu)的運(yùn)行性能也有不同。這篇文章分別在單 GPU,多 GPU 和多節(jié)點(diǎn)環(huán)境下評估了四種先進(jìn)的分布式深度學(xué)習(xí)框架(即 Caffe-MPI、CNTK、MXNet 和 TensorFlow)的運(yùn)行性能。首先,我們構(gòu)建了使用 SGD 訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的標(biāo)準(zhǔn)過程模型,然后用 3 種流行的卷積神經(jīng)網(wǎng)絡(luò)(AlexNet、GoogleNet 和 ResNet-50)對這些框架的運(yùn)行新能進(jìn)行了基準(zhǔn)測試。通過理論和實(shí)驗(yàn)的分析,我們確定了可以進(jìn)一步優(yōu)化的瓶頸和開銷。文章的貢獻(xiàn)主要分為兩個(gè)方面。一方面,對于終端用戶來說,針對他們的場景,測試結(jié)果為他們選擇合適的框架提供了參考。另一方面,被提出的性能模型和細(xì)節(jié)分析為算法設(shè)計(jì)和系統(tǒng)配置而言提供了更深層次的優(yōu)化方向。

 

表 2 針對數(shù)據(jù)并行化的實(shí)驗(yàn)硬件配置

 

圖 1 GPU 集群的拓?fù)?/p>

 

表 3 實(shí)驗(yàn)所用的軟件

 

表 4 試驗(yàn)中神經(jīng)網(wǎng)絡(luò)的設(shè)置

 

表 5 SGD 不同階段的時(shí)間(單位:秒)

[!--empirenews.page--]

 

圖 3 三種神經(jīng)網(wǎng)絡(luò)在單 GPU 上的性能比較(數(shù)值越低越好)

 

圖 4 三種神經(jīng)網(wǎng)絡(luò)在單節(jié)點(diǎn)多 GPU 上的擴(kuò)展性能


 

表 6 多 GPU 前端節(jié)點(diǎn)梯度聚合的數(shù)據(jù)通信開銷


 

表 7 多機(jī)梯度聚合的數(shù)據(jù)通信開銷


 

圖 5 多機(jī)環(huán)境下三種神經(jīng)網(wǎng)絡(luò)的擴(kuò)展性能。請注意,每臺(tái)機(jī)器 4 塊 GPU,8 塊 GPU 和 16 塊 GPU 的情況是分別跨 2 個(gè)與 4 個(gè)機(jī)器的。

 

表 8 所有測試案例的速度

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動(dòng)力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉