Intel將推出AI訓(xùn)練嵌入式處理器Nervana
掃描二維碼
隨時(shí)隨地手機(jī)看文章
百度與Intel打造的Nervana神經(jīng)網(wǎng)絡(luò)處理器NNP-T對應(yīng)Paddle Paddle學(xué)習(xí)框架運(yùn)作最佳化,并且整合Intel自有nGraph DNN (深度神經(jīng)網(wǎng)絡(luò),Deep Nerual Network)編譯器,借此讓大規(guī)模分散式數(shù)據(jù)學(xué)習(xí)效率提升,同時(shí)也能讓開發(fā)者透過單次編碼即可讓深度神經(jīng)網(wǎng)絡(luò)在個(gè)平臺(tái)順利運(yùn)作,進(jìn)而加快人工智能學(xué)習(xí)速度。
依照說明,NNP-T采用24組CU設(shè)計(jì),搭載32GB容量設(shè)計(jì)的HBM2高頻寬RAM,并且能搭配額外內(nèi)存加快資料緩沖存取,相比其他同類型處理契約可提升10倍訓(xùn)練效率,同時(shí)跟Intel先前推出的代號(hào)「Lake Crest」的Nervana NNP-L 1000處理器更提升3-4倍效能。
另外,Intel也強(qiáng)調(diào)將以軟體驅(qū)動(dòng)硬件運(yùn)算性能,因此也說明此次與百度合作的戰(zhàn)略意義,借此透過軟件定義方式讓Nervana處理器能對應(yīng)各類人工智能訓(xùn)練學(xué)習(xí)需求。
在此之前,Intel從2016年便與百度合作,使旗下Xeon Scalable系列處理器能對應(yīng)百度PaddlePaddle學(xué)習(xí)框架,此次打造的NNP-T也同樣對應(yīng)Paddle Paddle學(xué)習(xí)框架運(yùn)作最佳化,并且整合Intel自有nGraph DNN (深度神經(jīng)網(wǎng)路,Deep Nerual Network)編譯器,借此讓大規(guī)模分散式數(shù)據(jù)學(xué)習(xí)效率提升,同時(shí)也能讓開發(fā)者透過單次編碼即可讓深度神經(jīng)網(wǎng)絡(luò)在個(gè)平臺(tái)順利運(yùn)作,進(jìn)而加快人工智能學(xué)習(xí)速度。