當(dāng)前位置:首頁(yè) > 廠商動(dòng)態(tài) > 亞馬遜云科技
[導(dǎo)讀]深度學(xué)習(xí)(DL)的創(chuàng)新,特別是大語(yǔ)言模型(LLM)的快速發(fā)展,已經(jīng)席卷了整個(gè)行業(yè)。深度學(xué)習(xí)模型的參數(shù)已從數(shù)百萬(wàn)增加到數(shù)十億,為我們呈現(xiàn)了越來(lái)越多激動(dòng)人心的新能力。它們正在催生新的應(yīng)用,如生成式AI或醫(yī)療保健和生命科學(xué)的高級(jí)研究。亞馬遜云科技一直在芯片、服務(wù)器、數(shù)據(jù)中心互連和軟件服務(wù)等多個(gè)方面創(chuàng)新,加速深度學(xué)習(xí)工作負(fù)載的大規(guī)模應(yīng)用。

深度學(xué)習(xí)(DL)的創(chuàng)新,特別是大語(yǔ)言模型(LLM)的快速發(fā)展,已經(jīng)席卷了整個(gè)行業(yè)。深度學(xué)習(xí)模型的參數(shù)已從數(shù)百萬(wàn)增加到數(shù)十億,為我們呈現(xiàn)了越來(lái)越多激動(dòng)人心的新能力。它們正在催生新的應(yīng)用,如生成式AI或醫(yī)療保健和生命科學(xué)的高級(jí)研究。亞馬遜云科技一直在芯片、服務(wù)器、數(shù)據(jù)中心互連和軟件服務(wù)等多個(gè)方面創(chuàng)新,加速深度學(xué)習(xí)工作負(fù)載的大規(guī)模應(yīng)用。

亞馬遜云科技在2022 re:Invent 全球大會(huì)上,以其最新的自研機(jī)器學(xué)習(xí)推理芯片Amazon Inferentia2為基礎(chǔ),發(fā)布了Amazon EC2 Inf2系列實(shí)例的預(yù)覽版。Amazon EC2 Inf2類型實(shí)例專門(mén)針對(duì)全球大規(guī)模運(yùn)行高性能深度學(xué)習(xí)推理應(yīng)用程序,為部署在EC2上的生成式AI應(yīng)用提供最佳性價(jià)比,其中包含 GPT-J或開(kāi)放式預(yù)訓(xùn)練Transformer(OPT)語(yǔ)言模型。

現(xiàn)在,亞馬遜云科技宣布Amazon EC2 Inf2實(shí)例正式可用!

Inf2實(shí)例是Amazon EC2上首個(gè)推理優(yōu)化的實(shí)例,支持可擴(kuò)展的分布式推理,可實(shí)現(xiàn)多個(gè)inferentia2芯片之間的超高速連接。用戶可以在Inf2實(shí)例中跨多個(gè)芯片高效部署具有數(shù)千億個(gè)參數(shù)的模型。與Amazon EC2 Inf1實(shí)例相比,Inf2實(shí)例的吞吐量提高4倍,延遲降低10倍。

新Inf2實(shí)例的亮點(diǎn)

Inf2實(shí)例目前有四種可用實(shí)例類型,最高擴(kuò)展至12個(gè)Amazon Inferentia2芯片和192個(gè)vCPU配置。在BF16或FP16數(shù)據(jù)類型下,它們能夠提供2.3 petaFLOPS的綜合計(jì)算能力,并具有芯片間超高速NeuronLink互連的功能。NeuronLink可在多個(gè)Inferentia2芯片上擴(kuò)展大模型,避免通信瓶頸,實(shí)現(xiàn)更高性能的推理。

每個(gè)Inferentia2芯片內(nèi)有32 GB的高帶寬內(nèi)存(HBM),最高配置的 Inf2 實(shí)例可提供高達(dá)384 GB的共享加速器內(nèi)存,總內(nèi)存帶寬為9.8 TB/s。對(duì)于需要大內(nèi)存支持的的大型語(yǔ)言模型而言,這種帶寬對(duì)于支持模型推理尤為重要。

基于專門(mén)為深度學(xué)習(xí)工作負(fù)載而構(gòu)建的 Amazon Inferentia2芯片的 Amazon EC2 Inf2,相比同類實(shí)例,單位功率性能高出了50%。

Amazon Inferentia2的創(chuàng)新之處

與亞馬遜自研機(jī)器學(xué)習(xí)訓(xùn)練芯片 Amazon Trainium類似,每個(gè)Amazon Inferentia2芯片都配有兩個(gè)經(jīng)過(guò)優(yōu)化的NeuronCore-v2引擎、高帶寬內(nèi)存(HBM)堆棧和專用的集體計(jì)算引擎,以便在執(zhí)行多加速器推理時(shí)實(shí)現(xiàn)計(jì)算與通信的并行。

每個(gè)NeuronCore-v2都有專為深度學(xué)習(xí)算法構(gòu)建的標(biāo)量、向量和張量三種引擎,其中張量引擎針對(duì)矩陣運(yùn)算進(jìn)行了優(yōu)化;標(biāo)量引擎針對(duì)ReLU(修正線性單元)函數(shù)等元素性操作進(jìn)行了優(yōu)化;向量引擎針對(duì)批處理規(guī)范化或池化等非元素向量運(yùn)算進(jìn)行了優(yōu)化。

以下是Amazon Inferentia2芯片和服務(wù)器硬件其他創(chuàng)新總結(jié):

數(shù)據(jù)類型——Amazon Inferentia2 支持多種數(shù)據(jù)類型,包括 FP32、TF32、BF16、FP16 和 UINT8,用戶可以為工作負(fù)載選擇最合適的數(shù)據(jù)類型。它還支持新的可配置 FP8(cFP8) 數(shù)據(jù)類型,該數(shù)據(jù)類型特別適用于大模型,因?yàn)樗鼫p少了模型的內(nèi)存占用和 I/O 要求。

動(dòng)態(tài)執(zhí)行和動(dòng)態(tài)輸入形狀——Amazon Inferentia2 具有支持動(dòng)態(tài)執(zhí)行的嵌入式通用數(shù)字信號(hào)處理器 (DSP),因此無(wú)需在主機(jī)上展開(kāi)或執(zhí)行控制流運(yùn)算符。Amazon Inferentia2 還支持動(dòng)態(tài)輸入形狀,這些形狀對(duì)于具有未知輸入張量大小的模型(例如處理文本的模型)至關(guān)重要。

自定義運(yùn)算符——Amazon Inferentia2支持用C++語(yǔ)言編寫(xiě)的自定義運(yùn)算符。Neuron自定義C++運(yùn)算符使用戶能夠編寫(xiě)在NeuronCore上天然運(yùn)行的C++自定義運(yùn)算符。用戶可以使用標(biāo)準(zhǔn)的 PyTorch自定義運(yùn)算符編程接口將 CPU 自定義運(yùn)算符遷移到 Neuron 并實(shí)現(xiàn)新的實(shí)驗(yàn)運(yùn)算符,所有這些都無(wú)需對(duì) NeuronCore 硬件有任何深入了解。

NeuronLink v2——Inf2實(shí)例是Amazon EC2類型中首個(gè)將 NeuronLink V2 用于推理優(yōu)化的實(shí)例,NeuronLink v2 為Inferentia2芯片間的提供超高速連接,加強(qiáng)分布式推理性能。NeuronLink v2使用all-reduce等聚合通信(CC)運(yùn)算符,將高性能推理管道擴(kuò)展到所有的推理芯片上。

新Inf2實(shí)例現(xiàn)已可用

用戶可在亞馬遜云科技美東(俄亥俄州)和美東(北弗吉尼亞州)地區(qū)啟動(dòng)Inf2實(shí)例,以按需、預(yù)留和競(jìng)價(jià)實(shí)例或Savings Plan方式調(diào)用。用戶僅需為其實(shí)際使用的服務(wù)付費(fèi)。如需了解更多相關(guān)信息,請(qǐng)?jiān)L問(wèn)Amazon EC2定價(jià)網(wǎng)站。

Inf2實(shí)例可使用亞馬遜云科技深度學(xué)習(xí)鏡像進(jìn)行部署,并可通過(guò)Amazon SageMaker、Amazon Elastic Kubernetes Service(Amazon EKS)、Amazon Elastic Container Service(Amazon ECS)和Amazon ParallelCluster等托管服務(wù)調(diào)用。

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請(qǐng)聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請(qǐng)及時(shí)聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

倫敦2024年8月29日 /美通社/ -- 英國(guó)汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開(kāi)發(fā)耗時(shí)1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動(dòng) BSP

北京2024年8月28日 /美通社/ -- 越來(lái)越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時(shí)企業(yè)卻面臨越來(lái)越多業(yè)務(wù)中斷的風(fēng)險(xiǎn),如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報(bào)道,騰訊和網(wǎng)易近期正在縮減他們對(duì)日本游戲市場(chǎng)的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)開(kāi)幕式在貴陽(yáng)舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國(guó)國(guó)際大數(shù)據(jù)產(chǎn)業(yè)博覽會(huì)上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語(yǔ)權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對(duì)環(huán)境變化,經(jīng)營(yíng)業(yè)績(jī)穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤(rùn)率延續(xù)升勢(shì) 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長(zhǎng) 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競(jìng)爭(zhēng)力 堅(jiān)持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競(jìng)爭(zhēng)優(yōu)勢(shì)...

關(guān)鍵字: 通信 BSP 電信運(yùn)營(yíng)商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺(tái)與中國(guó)電影電視技術(shù)學(xué)會(huì)聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會(huì)上宣布正式成立。 活動(dòng)現(xiàn)場(chǎng) NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長(zhǎng)三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會(huì)上,軟通動(dòng)力信息技術(shù)(集團(tuán))股份有限公司(以下簡(jiǎn)稱"軟通動(dòng)力")與長(zhǎng)三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉