Meta新增兩大萬卡集群,投入近50000塊英偉達(dá)H100 GPU
Meta日前推出兩個(gè)功能強(qiáng)大的GPU集群,用于支持下一代生成式AI模型的訓(xùn)練,包括即將推出的Llama 3。
據(jù)悉,這兩個(gè)數(shù)據(jù)中心的GPU數(shù)量均高達(dá)24,576塊,專為支持比之前發(fā)布的更大、更復(fù)雜的生成式AI模型而構(gòu)建。
作為一種流行的開源算法模型,Meta的Llama能與OpenAI的GPT和Google的Gemini相媲美。
Meta刷新AI集群規(guī)模
極客網(wǎng)了解到,這兩個(gè)GPU集群都采用了英偉達(dá)當(dāng)前功能最強(qiáng)大的H100 GPU,并且比Meta之前推出的大型集群規(guī)模要大得多。此前Meta的集群約有16,000塊Nvidia A100 GPU。
據(jù)報(bào)道,Meta為此搶購了數(shù)千塊英偉達(dá)最新推出的GPU。調(diào)研機(jī)構(gòu)Omdia在最近的一份報(bào)告中聲稱,Meta已經(jīng)成為英偉達(dá)最大的客戶之一。
Meta工程師表示,該公司將使用新的GPU集群對(duì)現(xiàn)有的AI系統(tǒng)進(jìn)行微調(diào),并訓(xùn)練更新、更強(qiáng)大的AI系統(tǒng),其中包括Llama 3。
該工程師指出,Llama 3的開發(fā)工作目前正在“進(jìn)行中”,但并沒有透露何時(shí)對(duì)外發(fā)布。
從長(zhǎng)遠(yuǎn)來看,Meta的目標(biāo)是創(chuàng)建通用人工智能(AGI)系統(tǒng),應(yīng)為AGI在創(chuàng)造力方面比現(xiàn)有的生成式AI模型更像人類。
新的GPU集群將有助于Meta實(shí)現(xiàn)這些目標(biāo)。此外,該公司正在改進(jìn)PyTorch AI框架,使其能夠支持更多的GPU。
兩個(gè)GPU集群采用不同架構(gòu)
值得一提的是,雖然這兩個(gè)集群的GPU數(shù)量完全相同,都能以每秒400GB的端點(diǎn)相互連接,但它們采用了不同的架構(gòu)。
其中,一個(gè)GPU集群可以通過融合以太網(wǎng)網(wǎng)絡(luò)結(jié)構(gòu)遠(yuǎn)程訪問直接存儲(chǔ)器或RDMA,該網(wǎng)絡(luò)結(jié)構(gòu)采用Arista Networks的Arista 7800與Wedge400和Minipack2 OCP機(jī)架交換機(jī)構(gòu)建。另一個(gè)GPU集群使用英偉達(dá)的Quantum2 InfiniBand網(wǎng)絡(luò)結(jié)構(gòu)技術(shù)構(gòu)建。
這兩個(gè)集群都使用了Meta的開放式GPU硬件平臺(tái)Grand Teton,該平臺(tái)旨在支持大規(guī)模的AI工作負(fù)載。Grand Teton的主機(jī)到GPU帶寬是其前身Zion-EX平臺(tái)的四倍,計(jì)算能力、帶寬以及功率是Zion-EX的兩倍。
Meta表示,這兩個(gè)集群采用了最新的開放式機(jī)架電源和機(jī)架基礎(chǔ)設(shè)施,旨在為數(shù)據(jù)中心設(shè)計(jì)提供更大的靈活性。Open Rack v3允許將電源架安裝在機(jī)架內(nèi)部的任何地方,而不是將其固定在母線上,從而實(shí)現(xiàn)更靈活的配置。
此外,每個(gè)機(jī)架的服務(wù)器數(shù)量也是可定制的,從而在每個(gè)服務(wù)器的吞吐量容量方面實(shí)現(xiàn)更有效的平衡。
在存儲(chǔ)方面, 這兩個(gè)GPU集群基于YV3 Sierra Point服務(wù)器平臺(tái),采用了最先進(jìn)的E1.S固態(tài)硬盤。
更多GPU正在路上
Meta工程師在文中強(qiáng)調(diào),該公司致力于AI硬件堆棧的開放式創(chuàng)新?!爱?dāng)我們展望未來時(shí),我們認(rèn)識(shí)到,以前或目前有效的方法可能不足以滿足未來的需求。這就是我們不斷評(píng)估和改進(jìn)基礎(chǔ)設(shè)施的原因?!?
Meta是最近成立的AI聯(lián)盟的成員之一。該聯(lián)盟旨在創(chuàng)建一個(gè)開放的生態(tài)系統(tǒng),以提高AI開發(fā)的透明度和信任,并確保每個(gè)人都能從其創(chuàng)新中受益。
Meta方面還透露,將繼續(xù)購買更多的Nvidia H100 GPU,計(jì)劃在今年年底前擁有35萬塊以上的GPU。這些GPU將用于持續(xù)構(gòu)建AI基礎(chǔ)設(shè)施,意味著未來還有更多、更強(qiáng)大的GPU集群?jiǎn)柺馈?