據(jù)報導,富士通自2015年以來便投入DLU芯片開發(fā)工作,不過此前富士通很少對外透露這款微處理器的設計細節(jié),直到2017年6月舉辦的“ISC 2017”大會上,富士通AI基盤事業(yè)本部(AI Platform Division)資深主任丸山拓巳(Takumi Maruyama)才對外透露該公司投入AI及高效能運算(HPC)領域的發(fā)展成果,首度較深入介紹DLU微處理器運作細節(jié)。目前丸山便正從事于DLU芯片開發(fā)專案。
丸山指出,DLU微處理器與其他多款專為深度學習(DL)所打造的處理器相同的是,均高度仰賴于低精密度運算在神經網絡處理上優(yōu)化效能及能源效率,值得注意的是,DLU微處理器支援FP32、FP16、INT16以及INT8數(shù)據(jù)類型。在最高等級上,DLU微處理器是由若干“深度學習處理單元”(Deep Learning Processing Units;DPU)所組成,透過一個高效能構造進行互相連結,或可將這些DPUs視為是深度學習的核心。 個別的主核心管理在DPU上的執(zhí)行,并負責在DPU與芯片內建存儲器控制器之間協(xié)調存儲器近用任務。
值得注意的是,每個DPU均是由16個深度學習處理元素(DPE)所組成,這也是實際數(shù)值運算進行之處;每個DPE則是由8個SIMD執(zhí)行單位連同一個非常大型的注冊檔(Register File; RF)所組成,此RF完全受到軟件的控制。
另外,DLU封裝將包含一定數(shù)量的第二代高頻寬存儲器(HBM2),這款存儲器能夠高速提供處理器所需數(shù)據(jù),該DLU封裝也將包含一個用于透過Tofu互聯(lián)技術與其他DLU微處理器相連結的介面,富士通預計2018年度將推出DLU微處理器,且將先以協(xié)同處理器形式問世,由一組中央處理器(CPU)來驅動DLU微處理器。
自下一代DLU微處理器技術開始,富士通計劃將DLU微處理器以某種形式嵌入一組CPU中,不過富士通仍未透露此下一代技術何時將推出。借由上述芯片外(off-chip)網路設計,富士通設想未來能夠以DLU微處理器打造非常龐大的系統(tǒng),目標創(chuàng)建可擴充的平臺供處理最大且最復雜的深度學習問題。 富士通的最終計劃目標,是要除了擁有面向一般市場的SPARC處理器產品線外,也要打造一個DLU微處理器產品線。
富士通了解到AI與機器學習(ML)在不久的將來可望主導全球科技應用領域,如果不跟進恐面臨在未來遭邊緣化的危機,目前則是由NVIDIA居于這市場的領先地位,但英特爾(Intel)、AMD(AMD)及英國AI芯片硬件設計新創(chuàng)企業(yè)Graphcore等廠商,均在發(fā)展自有AI芯片技術上積極投入,預計未來6~12個月可能將相繼推出新產品線,屆時也將成為富士通DLU微處理器的新競爭對手。
NVIDIA在這塊領域具備的優(yōu)勢,在于該公司為自有繪圖芯片(GPU)開發(fā)的深度學習軟件支援,能夠讓NVIDIA在AI芯片市場上取得較大領先優(yōu)勢,用于處理神經網路的軟件架構數(shù)量不僅多且仍在增長,但NVIDIA能夠完全提供支持,反觀微軟(Microsoft)、CNTK、Theano、MXNet、Torch、TensorFlow以及Caffe等廠商最多只能支持主要的軟件架構部分。
即使如此,對于擁有較龐大資金規(guī)模的廠商如富士通及其他廠商來說,這塊領域雖然已有大量深度學習軟件已經被寫入,但相對于未來幾年可能發(fā)展的數(shù)量來說仍是九牛一毛,這意謂在這塊領域未來幾年仍有容納其他新進競爭廠商的許多空間,這讓富士通等新進廠商仍有搶食這塊市場商機的機會。