當(dāng)前位置:首頁(yè) > 芯聞號(hào) > 充電吧
[導(dǎo)讀]谷歌4日在博客中宣布開源大規(guī)模神經(jīng)網(wǎng)絡(luò)模型高效訓(xùn)練庫(kù) GPipe,這是一款分布式機(jī)器學(xué)習(xí)庫(kù),可以讓研究員在不調(diào)整超參數(shù)的情況下,部署更多的加速器以對(duì)大規(guī)模模型進(jìn)行訓(xùn)練,有效擴(kuò)展了模型性能。對(duì)此進(jìn)行編譯

谷歌4日在博客中宣布開源大規(guī)模神經(jīng)網(wǎng)絡(luò)模型高效訓(xùn)練庫(kù) GPipe,這是一款分布式機(jī)器學(xué)習(xí)庫(kù),可以讓研究員在不調(diào)整超參數(shù)的情況下,部署更多的加速器以對(duì)大規(guī)模模型進(jìn)行訓(xùn)練,有效擴(kuò)展了模型性能。對(duì)此進(jìn)行編譯如下。

深度神經(jīng)網(wǎng)絡(luò)(DNNs)推進(jìn)諸多機(jī)器學(xué)習(xí)任務(wù)的進(jìn)步,其中包括語(yǔ)音識(shí)別、視覺識(shí)別和語(yǔ)言處理等。BigGan、Bert 、GPT2.0 等最新成果表明,DNN 的模型越大,任務(wù)處理的表現(xiàn)就越好,而該結(jié)論也在過去的視覺識(shí)別任務(wù)中得到了驗(yàn)證,表明模型大小與分類準(zhǔn)確性之間存在很強(qiáng)的關(guān)聯(lián)性。舉個(gè)例子,2014 年 ImageNet 視覺識(shí)別挑戰(zhàn)賽的冠軍 GoogleNet 通過對(duì) 400 萬參數(shù)進(jìn)行調(diào)整,最終取得 74.8 % 的精確度成績(jī);僅僅過了三年,2017 年 ImageNet 挑戰(zhàn)賽冠軍 Squeeze-and-Excitation Networks 調(diào)整的參數(shù)便高達(dá) 1.458 億(36 倍以上),最終取得了 82.7% 的精確度成績(jī)。與此對(duì)應(yīng)的是,市面的 GPU 內(nèi)存僅僅提高了 3 倍左右,目前最先進(jìn)的圖像模型早已達(dá)到云 TPUv2 可用內(nèi)存的極限。因此,我們迫切需要一種高效、可擴(kuò)展的基礎(chǔ)設(shè)施,以實(shí)現(xiàn)大規(guī)模的深度學(xué)習(xí)訓(xùn)練,并克服當(dāng)前的加速器內(nèi)存受限問題。

最具有代表性的圖像分類模型體現(xiàn)出了 ImageNet 精確度結(jié)果與模型大小的強(qiáng)關(guān)聯(lián)性

在《GPipe: Efficient Training of Giant Neural Networks using Pipeline Parallelism》一文中,我們展示了如何通過流水并行技術(shù)(pipeline parallelism)對(duì) DNN 的訓(xùn)練進(jìn)行擴(kuò)展以克服這一限制。簡(jiǎn)單來說,GPipe 是一款分布式機(jī)器學(xué)習(xí)庫(kù),基于同步隨機(jī)梯度下降與流水并行技術(shù)進(jìn)行模型訓(xùn)練,適用于由多個(gè)連續(xù)層組成的任意 DNN。最重要的是,GPipe 可以讓研究員在不調(diào)整超參數(shù)的情況下,部署更多的加速器以訓(xùn)練大規(guī)模模型,由此有效擴(kuò)展了性能。為了證明 GPipe 的能力,我們?cè)?Google Cloud TPUv2s 上訓(xùn)練了一個(gè)具有 5.57 億模型參數(shù)、 480 x 480 輸入圖像尺寸的 AmoebaNet-B。該模型在多個(gè)流行數(shù)據(jù)集上表現(xiàn)良好,取得的成就包括:single-crop ImageNet 的精確度提高至 84.3%、 CIFAR-10 的精確度提高至 99%、CIFAR-100 的精確度提高至 91.3%。

從小批次至微批次

目前存在兩種標(biāo)準(zhǔn)方法可以對(duì)中等規(guī)模的 DNN 模型進(jìn)行加速。數(shù)據(jù)并行方法(The data parallelism)可以納入更多的機(jī)器,并將輸入的數(shù)據(jù)區(qū)分開來。另一種方法則是將模型置于加速器上(比如 GPU 或 TPU)——這些加速器的特殊硬件可加速模型的訓(xùn)練進(jìn)程。然而加速器卻面臨著內(nèi)存與主機(jī)通信帶寬兩方面受限的問題。因此,通過將模型進(jìn)行分區(qū),并根據(jù)分區(qū)配置相應(yīng)的加速器,模型并行技術(shù)可以讓我們?cè)诩铀倨魃嫌?xùn)練更大規(guī)模的 DNN 模型。由于 DNN 存在順序性,這種策略最后可能變成計(jì)算期間只有一個(gè)加速器處于活躍狀態(tài),未能將加速器的計(jì)算能力充分利用起來。此外,標(biāo)準(zhǔn)的數(shù)據(jù)并行技術(shù)只允許在多個(gè)加速器上同時(shí)訓(xùn)練具有不同輸入數(shù)據(jù)的相同模型,卻無法提升加速器所能支持的最大模型規(guī)模。

為了實(shí)現(xiàn)跨加速器的高效訓(xùn)練,GPipe 先按照加速器對(duì)模型進(jìn)行劃分,然后自動(dòng)將小批次的訓(xùn)練示例拆分為更小的微批次。通過在微批次中執(zhí)行流水管理,加速器得以并行運(yùn)行。此外,梯度將在微批次中持續(xù)累積,以免分區(qū)的數(shù)量影響到模型的質(zhì)量。

上圖:由于網(wǎng)絡(luò)存在順序性,模型并行策略導(dǎo)致嚴(yán)重的利用不充分問題。 每次都只有一個(gè)加速器處于活動(dòng)狀態(tài)。

下圖:GPipe 將輸入的小批次拆成更小的微批次,使不同的加速器可以同時(shí)在單獨(dú)的微批次上運(yùn)作。

內(nèi)存和效率的最大化

GPipe 會(huì)對(duì)模型參數(shù)的內(nèi)存分配進(jìn)行最大化處理。我們?cè)诿總€(gè) TPUv2 均配有 8 個(gè)加速器核心以及 64 GB 內(nèi)存(每個(gè)加速器 8 GB)的云 TPUv2 上做了相關(guān)實(shí)驗(yàn)。如果沒有 GPipe,由于內(nèi)存的限制,單個(gè)加速器頂多只能訓(xùn)練 8200 萬個(gè)模型參數(shù)。而通過反向傳播以及批量分割技術(shù)進(jìn)行重新計(jì)算的 GPipe ,成功將中間激活內(nèi)存從 6.26 GB 減至 3.46GB,由此實(shí)現(xiàn)單個(gè)加速器上訓(xùn)練 3.18 億個(gè)參數(shù)的成果。此外,我們還發(fā)現(xiàn)在流水并行技術(shù)的作用下,模型的最大規(guī)模與分區(qū)數(shù)量成正比,正如事前所預(yù)料的那樣??偟膩碚f,GPipe 使 AmoebaNet 能在云 TPUv2 的 8 個(gè)加速器上納入 18 億個(gè)參數(shù),比起之前高出了 25 倍。

為了測(cè)試模型的效率,我們研究了 GPipe 對(duì) AmoebaNet-D 模型吞吐量的影響情況。由于訓(xùn)練過程需要至少兩個(gè)加速器以適應(yīng)模型尺寸,因此我們只能對(duì)沒有實(shí)施流水并行技術(shù)的兩個(gè)分區(qū)案例的加速情況進(jìn)行觀察。我們發(fā)現(xiàn)訓(xùn)練過程存在近乎線性的加速效果。與兩個(gè)分區(qū)案例相比,將模型分布在四倍數(shù)量的加速器上能有效實(shí)現(xiàn) 3.5 倍的加速效果。我們的實(shí)驗(yàn)均使用了云 TPUv2,但我們了解到最新的的云 TPUv3 由于每個(gè) TPUv3 均配備了 16 個(gè)加速器核心以及 256 GB(每個(gè)加速器 16 GB),因此擁有更理想的表現(xiàn)性能。當(dāng)我們?cè)谒?16 個(gè)加速器上對(duì)模型進(jìn)行分發(fā),GPipe 能讓基于 1024-token 句子的 80 億參數(shù) Transformer 語(yǔ)言模型的訓(xùn)練速度提高 11 倍。

通過 GPipe 對(duì) AmoebaNet-D 進(jìn)行加速。這種模型不適用于單個(gè)加速器。naive-2 基線是將模型拆分為兩個(gè)分區(qū),最終取得的性能結(jié)果。Pipeline-k 對(duì)應(yīng)的是 GPipe 將模型分成帶有 k 個(gè)加速器的 k 個(gè)分區(qū)的最終性能結(jié)果。

在無需更改超參數(shù)的情況下,GPipe 還能通過使用更多加速器來擴(kuò)展訓(xùn)練結(jié)果。因此,它可以與數(shù)據(jù)并行技術(shù)相結(jié)合,通過互補(bǔ)的方式使用更多的加速器來擴(kuò)展神經(jīng)網(wǎng)絡(luò)的訓(xùn)練規(guī)模。

精準(zhǔn)度測(cè)試

我們?cè)噲D通過 GPipe 證明,對(duì)現(xiàn)有的神經(jīng)網(wǎng)絡(luò)進(jìn)行擴(kuò)展,可以實(shí)現(xiàn)更理想的模型質(zhì)量。為此,我們?cè)?ImageNet ILSVRC-2012 數(shù)據(jù)集上訓(xùn)練一個(gè)模型參數(shù)為 5.57 億、輸入圖像尺寸為 480 x 480 的 AmoebaNet-B。該網(wǎng)絡(luò)被分為 4 個(gè)分區(qū),在模型與數(shù)據(jù)上執(zhí)行了并行訓(xùn)練程序。該巨型模型在沒有任何外部數(shù)據(jù)的情況下,最終達(dá)到了最先進(jìn)的 84.3% top-1 / 97% top-5 的single-crop 驗(yàn)證準(zhǔn)確度結(jié)果。這說明大型的神經(jīng)網(wǎng)絡(luò)不僅適用于 ImageNet 等數(shù)據(jù)集,還能通過遷移學(xué)習(xí)的方式作用于其他數(shù)據(jù)集。事實(shí)證明,更好的 ImageNet 模型擁有更理想的傳輸效果。我們?cè)?CIFAR10 和 CIFAR100 數(shù)據(jù)集上進(jìn)行了遷移學(xué)習(xí)實(shí)驗(yàn)。我們的巨型模型成功將 CIFAR-10 的精確度提高至到 99%、CIFAR-100 的精確度提高到 91.3%。

結(jié)論

當(dāng)下許多機(jī)器學(xué)習(xí)應(yīng)用(如自動(dòng)駕駛和醫(yī)學(xué)成像)得以持續(xù)發(fā)展并取得成功的原因,在于實(shí)現(xiàn)了盡可能高的模型精確度。然而這也意味著我們需要構(gòu)建一個(gè)更大、更復(fù)雜的模型,我們很高興能夠?yàn)檠芯可鐓^(qū)提供 GPipe,我們希望未來它可以成為高效訓(xùn)練大規(guī)模 DNN 的基礎(chǔ)設(shè)施。


本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉