當(dāng)前位置:首頁(yè) > 芯聞號(hào) > 美通社全球TMT
[導(dǎo)讀] (全球TMT2022年1月5日訊)在近日舉行的2021 NeurIPS MeetUp China上,浪潮信息副總裁、AI&HPC產(chǎn)品線總經(jīng)理劉軍基于2457億參數(shù)的“源1.0”中文語(yǔ)言模型,分享了浪潮人工智能研究院在巨量模型訓(xùn)練與計(jì)算性能提升方面的領(lǐng)先實(shí)踐。 ...

(全球TMT2022年1月5日訊)在近日舉行的2021 NeurIPS MeetUp China上,浪潮信息副總裁、AI&HPC產(chǎn)品線總經(jīng)理劉軍基于2457億參數(shù)的“源1.0”中文語(yǔ)言模型,分享了浪潮人工智能研究院在巨量模型訓(xùn)練與計(jì)算性能提升方面的領(lǐng)先實(shí)踐。

浪潮信息劉軍:如何用更少GPU更快地完成2457億參數(shù)巨量模型訓(xùn)練?

談及巨量模型訓(xùn)練,劉軍表示:“訓(xùn)練工作中最復(fù)雜也最具挑戰(zhàn)的技術(shù)點(diǎn)在于如何行之有效地完成數(shù)千萬(wàn)級(jí)參數(shù)的模型訓(xùn)練”。當(dāng)前,GPU顯存最高為數(shù)十GB左右,而訓(xùn)練‘源’這樣訓(xùn)練數(shù)據(jù)集達(dá)5TB、參數(shù)量達(dá)2457億的大模型需要的GPU顯存高達(dá)幾TB,顯然無(wú)法在單個(gè)顯卡或一臺(tái)GPU服務(wù)器上完成。因此,巨量模型訓(xùn)練工作,需要在模型算法、分布式訓(xùn)練、大規(guī)模集群計(jì)算等各個(gè)層面進(jìn)行協(xié)同設(shè)計(jì)、優(yōu)化,才能保證模型訓(xùn)練過(guò)程收斂。

浪潮人工智能研究院需要將“源1.0”訓(xùn)練所需的巨大算力并行分布到幾千張GPU上。模型訓(xùn)練時(shí)最常采用的是數(shù)據(jù)并行分布式計(jì)算策略,但這只能滿足小模型的訓(xùn)練需求。對(duì)于像“源 1.0”這樣的巨量模型而言,需要專門(mén)設(shè)計(jì)算法來(lái)解決訓(xùn)練中的顯存占用問(wèn)題,同時(shí)還要兼顧訓(xùn)練過(guò)程中的GPU計(jì)算資源的利用率。

為此,浪潮采用了張量并行、流水線并行和數(shù)據(jù)并行的“三合一”并行策略。首先,將266臺(tái)AI服務(wù)器共計(jì)2128個(gè)GPU芯片分成7組,每組38臺(tái)AI服務(wù)器放置一個(gè)完整的“源1.0”大模型,其次,每組的38個(gè)服務(wù)器,采用流水并行每個(gè)服務(wù)器放置1/38的模型(2個(gè)Transformer Layer),一共76層;最后,在每臺(tái)服務(wù)器內(nèi)采用張量并行,按照Transformer結(jié)構(gòu)的每一層進(jìn)行均勻切分。在此過(guò)程中,浪潮人工智能研究院也通過(guò)“增加序列長(zhǎng)度”、“減少模型層數(shù)”、“增加隱藏層大小”、“增加節(jié)點(diǎn)中微批次大小”等模型結(jié)構(gòu)策略,提升訓(xùn)練效率。

最終,浪潮人工智能研究院完成2457億參數(shù)的“源 1.0”模型訓(xùn)練,總計(jì)訓(xùn)練1800億個(gè)tokens,模型收斂的交叉熵為1.64。相較于GPT-3的1750億參數(shù),“源1.0”是其參數(shù)量的1.404倍。GPT-3使用10000塊GPU、花了30天訓(xùn)練完成1750億參數(shù),“源1.0”在2128個(gè)GPU集群上跑了16天完成了訓(xùn)練,使用更少GPU更快完成訓(xùn)練,大幅提升計(jì)算效率。

“源1.0”消耗的總算力為4095 PetaFlop/s-day,每個(gè)GPU的實(shí)際訓(xùn)練性能達(dá)到140 TFlops,GPT-3消耗的總算力為3640 PetaFlop/s-day,其單GPU計(jì)算性能為12 TFlops;而微軟和英偉達(dá)打造的5300億參數(shù)量的MT-NLG模型用了4480個(gè)A100 GPU,其單GPU計(jì)算性能為113 TFlops,也低于“源1.0”。

浪潮人工智能研究院在實(shí)現(xiàn)更高計(jì)算效率的同時(shí),也探索優(yōu)化大規(guī)模AI計(jì)算集群架構(gòu)。當(dāng)前,如MT-NLG等大規(guī)模深度學(xué)習(xí)模型需要在計(jì)算集群中采用8x200Gbps的IB互聯(lián)架構(gòu),而“源1.0”在集群架構(gòu)設(shè)計(jì)上采用了2x200Gbps的高速網(wǎng)絡(luò)實(shí)現(xiàn)節(jié)點(diǎn)互聯(lián),“我們?cè)趯?shí)踐發(fā)現(xiàn),通過(guò)一定的優(yōu)化工作,可以使用更少網(wǎng)絡(luò)設(shè)備數(shù)量,取得更佳的計(jì)算性能?!眲④姳硎尽?/p>

巨量模型是當(dāng)前人工智能研究的熱點(diǎn),當(dāng)前的巨量模型遠(yuǎn)沒(méi)有達(dá)到模型能力的極限,增大模型參數(shù)量和訓(xùn)練數(shù)據(jù)量仍然將帶來(lái)模型精度的持續(xù)提升。對(duì)于巨量模型的發(fā)展趨勢(shì),劉軍表示,“巨量模型的計(jì)算量已經(jīng)超過(guò)PetaFlop/s-day的階段,進(jìn)入到ExtraFlop/s-day的階段。1 ExtraFlops等于1000 PetaFlops,因此可以說(shuō),GPT-3的計(jì)算量是3.64ExtraFlop/s-day,‘源1.0’的計(jì)算量則是4.095 ExtraFlop/s-day。從十年的尺度來(lái)看,今天我們還處于巨量模型起步階段,人類對(duì)計(jì)算的追求是沒(méi)有極限的,目前巨量模型消耗的計(jì)算量可能僅僅是未來(lái)一臺(tái)電腦的計(jì)算量?!眲④妼?duì)巨量模型的未來(lái)發(fā)展充滿信心。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車(chē)的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車(chē)技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車(chē)工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車(chē)。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車(chē) 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉