大語言模型(LLM)已經(jīng)在多個領(lǐng)域展示出了卓越的性能和巨大的潛力,然而,要想真正發(fā)揮出這些模型的強大能力,需要強大的算力基礎(chǔ)設(shè)施,而芯片是關(guān)鍵。
千呼萬喚始出來,第五代英特爾®? 至強®? 可擴展處理器,它來了!
若是用一句話來概括它的特點,那就是——AI味道越發(fā)得濃厚。
以訓(xùn)練、推理大模型為例:
? 與第四代相比,訓(xùn)練性能提升多達(dá)29%,推理性能提升高達(dá)42%;
? 與第三代相比,AI訓(xùn)練和推理性能提升高達(dá)14倍。
第五代至強處理器
什么概念?
現(xiàn)在若是將不超過200億參數(shù)的模型“投喂”給第五代至強®? 可擴展處理器,那么時延將低到不超過100毫秒!
也就是說,現(xiàn)在在CPU上跑大模型,著實是更香了。
而這也僅是英特爾在此次發(fā)布中的一隅,還包括打破自家“祖制”、被稱為四十年來最重大架構(gòu)轉(zhuǎn)變的酷睿?? Ultra。
此舉亦是將AI的power注入到消費級PC中,用于加速本地的AI推理。
除此之外,具體到英特爾長期在各行各業(yè)扎根的AI實戰(zhàn)應(yīng)用,包括數(shù)據(jù)庫、科學(xué)計算、生成式AI、機器學(xué)習(xí)、云服務(wù)等等,也隨著第五代至強®? 可擴展處理器的到來,在其內(nèi)置的如英特爾®? AMX、英特爾®? SGX/TDX等其他內(nèi)置加速器的幫助下,得到了更大的降本增效。
總而言之,縱觀英特爾此次整場的發(fā)布,AI可謂貫穿始終。
##最新英特爾處理器,AI更Power了
我們先來繼續(xù)深入了解一下第五代至強®? 可擴展處理器披露的更多細(xì)節(jié)。
例如在性能優(yōu)化方面,英特爾將各種參數(shù)做了以下提升:
? CPU核心數(shù)量增加到64個,單核性能更高,每個內(nèi)核都具備AI加速功能
? 采用全新I/O技術(shù)(CXL、PCIe5),UPI速度提升
? 內(nèi)存帶寬從4800 MT/s提高至5600 MT/s
我們再來縱向,與英特爾前兩代產(chǎn)品做個比較,那么性能提升的結(jié)果是這樣的:
? 與上一代產(chǎn)品相比,相同熱設(shè)計功耗下平均性能提升21%;與第三代產(chǎn)品比,平均性能提升87%。
? 與上一代產(chǎn)品相比,內(nèi)存帶寬提升高達(dá)16%,三級緩存容量提升至近3倍之多。
不難看出,第五代至強®? 可擴展處理器與“前任們”相比,在規(guī)格與性能上著實是有了不小的提升。
但英特爾可不僅僅是披露,而是已經(jīng)將第五代至強®? 可擴展處理器用起來,并把實打?qū)嵉氖褂眯Ч故玖顺鰜怼?
例如在大模型的推理方面,京東云便在現(xiàn)場展示了搭載第五代至強®? 可擴展處理器的新一代自研服務(wù)器所呈現(xiàn)的能力——
全部以超過20%的性能提升“姿勢”亮相!
具體而言,京東云與上一代自研服務(wù)器有了如下的性能提升:
? 整機性能提升達(dá)123%;
? AI計算機視覺推理性能提升至138%;
? Llama 2推理性能提升至151%。
這也再一次證明了在五代至強®? 上搞大模型,是越發(fā)得吃香了。
而除了大模型之外,像涉及AI的各種細(xì)分領(lǐng)域,如整機算力、內(nèi)存寬帶、視頻處理等等,也有同樣的實測結(jié)果。
這份結(jié)果則是來自采用了第五代英特爾® 至強® 可擴展處理器的火山引擎——
其全新升級的第三代彈性計算實例,整機算力提升39%;應(yīng)用性能最高提升43%。
而且在性能提升的基礎(chǔ)上,據(jù)火山引擎透露,通過其獨有的潮汐資源并池能力,構(gòu)建了百萬核彈性資源池,能夠用近似包月的成本提供按量使用體驗,上云成本更低了!
這是由于使用內(nèi)置于第五代至強®? 可擴展處理器中的加速器時,可將每瓦性能平均提升10倍;在能耗低至105W的同時,也有已針對工作負(fù)載優(yōu)化的高能效SKU。
可以說是實打?qū)嵉慕当驹鲂Я恕?
在云計算和安全性方面,亮出實測體驗的同樣是來自國內(nèi)的大廠——阿里云。
在搭載第五代英特爾® 至強® 可擴展處理器及其內(nèi)置的英特爾® AMX、英特爾® TDX加速引擎后,阿里云打造了“生成式AI模型及數(shù)據(jù)保護“的創(chuàng)新實踐,使第8代ECS實例在安全性和AI性能上都獲得了顯著提升,且保持實例價格不變,普惠客戶。
包括推理性能提高25%、QAT加解密性能提升20%、數(shù)據(jù)庫性能提升25%,以及音視頻性能提升15%。
值得一提的是,內(nèi)置的英特爾®? SGX/TDX還可以為企業(yè)分別提供更強也更易用的應(yīng)用隔離能力和虛擬機 (VM) 層面的隔離和保密性,為現(xiàn)有應(yīng)用提供了一條更簡便的向可信執(zhí)行環(huán)境遷移的路徑。
以及第五代英特爾® 至強® 可擴展處理器在軟件和引腳上是與上一代兼容的,還可以大大減少測試和驗證工作。
總的來說,第五代至強® 可擴展處理器可謂“誠意滿滿”、表現(xiàn)非常亮眼,而它背后所透露出來的,正是英特爾在AI領(lǐng)域一直都非常重視落地的態(tài)度。
##背后是一部AI落地史
事實上,作為服務(wù)器/工作端芯片,英特爾® 至強® 可擴展處理器從2017年第一代產(chǎn)品開始就利用英特爾®? AVX-512技術(shù)的矢量運算能力對AI進(jìn)行加速上的嘗試;而2018年在第二代至強®? 可擴展處理器中導(dǎo)入深度學(xué)習(xí)加速技術(shù)(DL Boost)更是讓至強成為“CPU跑AI”的代名詞;在之后第三代到第五代至強®? 可擴展處理器的演進(jìn)中,從BF16的增添再到英特爾®? AMX的入駐,可以說英特爾一直在充分利用CPU資源的道路上深耕,以求每一代處理器CPU都能支持各行各業(yè)推進(jìn)AI實戰(zhàn)。
起先是在傳統(tǒng)行業(yè)。
例如第二代至強®? 就發(fā)力智能制造,幫助企業(yè)解決海量實時數(shù)據(jù)處理挑戰(zhàn),提升生產(chǎn)線系統(tǒng)效率,完成“肉眼可見”的產(chǎn)能擴展。
隨后,至強® 可擴展處理器開始在大模型界大展身手。
在AlphaFold2掀起的蛋白質(zhì)折疊預(yù)測熱潮之中,第三代和第四代至強® 可擴展處理器連續(xù)接力,不斷優(yōu)化端到端通量能力。實現(xiàn)比GPU更具性價比的加速方案,直接拉低AI for Science的入場門檻。
這其中就有從第四代開始內(nèi)置于CPU中,面向深度學(xué)習(xí)應(yīng)用推出的創(chuàng)新AI加速引擎——英特爾® AMX的功勞。作為矩陣相關(guān)的加速器,它能顯著加速基于CPU平臺的深度學(xué)習(xí)推理和訓(xùn)練,提升AI整體性能,對INT8、BF16等低精度數(shù)據(jù)類型都有著良好的支持。
與此同時,在大模型時代的OCR技術(shù)應(yīng)用,也被第四代至強® 可擴展處理器賦予了新的“靈魂”,準(zhǔn)確率飆升、響應(yīng)延遲更低。
同樣,就在不久之前,借助第四代至強®? 可擴展處理器在NLP上的優(yōu)化,專攻醫(yī)療行業(yè)的大語言模型也成功以較低成本在醫(yī)療機構(gòu)部署落地。
在AI技術(shù)越來越深入各行各業(yè)的大趨勢之下,至強® 可擴展處理器讓我們看到,它所代表的CPU解法完全能夠有所作為、能夠讓不少AI應(yīng)用在部署更為廣泛、獲取更加容易、應(yīng)用門檻也更低的CPU平臺上獲得實實在在的落地開花。
第五代至強® 可擴展處理器的發(fā)布,則讓這個進(jìn)程更進(jìn)一步。
當(dāng)然——
這一成績的背后,確實是因為大家對“在CPU上跑AI”這件事上有需求,以及它本身也有極其深厚的價值和優(yōu)勢。
先說需求,無論是傳統(tǒng)企業(yè)推進(jìn)智能化改造,還是AI for Science、生成式AI等新興技術(shù)的蓬勃發(fā)展,都需要強大的算力來驅(qū)動。
但大家面臨的局勢卻是:專門的加速芯片供不應(yīng)求,采購難不說,成本也十分高昂,因此還遠(yuǎn)遠(yuǎn)不夠普及。
于是一部分人自然將目光投向CPU:
這個現(xiàn)實中最為“觸手可及”的硬件,如果直接加以利用,豈不是事半功倍?
這就引出CPU的價值和優(yōu)勢。
就拿當(dāng)下熱門話題生成式AI來說,如果想在生產(chǎn)環(huán)境中普及這一能力,就得盡可能地控制成本。
相比訓(xùn)練來說,AI的推理對算力資源需求沒有那么夸張,交給CPU完全能夠勝任——不僅延遲更低,能效也更高。
像一些行業(yè)和業(yè)務(wù),推理任務(wù)沒有那么繁重,選擇CPU無疑更具性價比。
此外,利用CPU直接進(jìn)行部署還能讓企業(yè)充分利用既有IT基礎(chǔ)設(shè)施,避免異構(gòu)平臺的部署難題。
以上,我們也就能夠理解:在傳統(tǒng)架構(gòu)中引入AI加速,就是CPU在這個時代的新宿命。
而英特爾做的,就是竭盡全力幫大家挖掘、釋放其中的價值。
##駕馭整個AI管線,且不止CPU
最后,我們再回到今天的主角:第五代英特爾® 至強® 可擴展處理器。
實話說,如果和專門的GPU或AI加速芯片相比,它可能確實還不夠炫,但主打親民、易用(開箱即用,配套的軟件和生態(tài)越發(fā)完善)。
更值得我們注意的是,就算在有專用加速器的場合,CPU無論是從數(shù)據(jù)預(yù)處理,還是模型開發(fā)和優(yōu)化,再到部署和使用,也可以成為AI pipeline的一部分。
其中尤其在數(shù)據(jù)預(yù)處理階段,它已可以稱得上是主角的存在。
無論是以GB還是TB計,甚至更大的數(shù)據(jù)集,基于至強® 可擴展處理器所打造的服務(wù)器,都能通過支持更大內(nèi)存、減少I/O操作等優(yōu)勢,提供高效的處理和分析,節(jié)省AI開發(fā)中這一最瑣碎耗時任務(wù)的時間。
基于以上,我們也不得不感嘆,如今英特爾在談AI時,話題更多樣化了。
再加上它在GPU和專門的AI加速芯片上也有布局,“武器庫”里的選擇也更多了,火力覆蓋的能力也更全面了。
毫無疑問,這一切,都指向英特爾全面加速AI的決心。
即用一系列具有性價比的產(chǎn)品組合來快速滿足不同行業(yè)的AI落地需求。
AI 落地時代開始了,英特爾的機會也來了?