服務器如何按體系結(jié)構(gòu)分類?AI服務器與普通服務器有何區(qū)別?
今天,小編將在這篇文章中為大家?guī)矸掌鞯挠嘘P(guān)報道,通過閱讀這篇文章,大家可以對服務器具備清晰的認識,主要內(nèi)容如下。
一、服務器如何按體系結(jié)構(gòu)分類
根據(jù)體系結(jié)構(gòu)不同,服務器可以分成兩大重要的類別:IA架構(gòu)服務器和RISC架構(gòu)服務器。
這種分類標準的主要依據(jù)是兩種服務器采用的處理器體系結(jié)構(gòu)不同。RISC架構(gòu)服務器采用的CPU是所謂的精簡指令集的處理器,精簡指令集CPU的主要特點是采用定長指令,使用流水線執(zhí)行指令,這樣一個指令的處理可以分成幾個階段,處理器設置不同的處理單元執(zhí)行指令的不同階段,比如指令處理如果分成三個階段,當?shù)贜條指令處在第三個處理階段時,第N+1條指令將處在第二個處理階段,第N+2條指令將處在第一個處理階段。這種指令的流水線處理方式使得CPU有并行處理指令的能力,這使處理器能夠在單位時間內(nèi)處理更多的指令。IA架構(gòu)的服務器采用的是CISC體系結(jié)構(gòu),即復雜指令集體系結(jié)構(gòu),這種體系結(jié)構(gòu)的特點是指令較長,指令的功能較強,單個指令可執(zhí)行的功能較多,這樣我們可以通過增加運算單元,使一個指令所執(zhí)行的功能能夠同時并行執(zhí)行來提高運算能力。長時間以來兩種體系結(jié)構(gòu)一直在相互競爭中成長,都取得了快速的發(fā)展。IA架構(gòu)的服務器采用了開放體系結(jié)構(gòu),因而有了大量的硬件和軟件的支持者,在近年有了長足的發(fā)展。
二、AI服務器與普通服務器的區(qū)別
通過上面的介紹,想必大家對服務器按體系結(jié)構(gòu)的分類已經(jīng)具備了初步的認識。在這部分,我們主要來了解一下人工智能AI服務器與普通服務器的區(qū)別。
從服務器的硬件架構(gòu)來看,AI服務器是采用異構(gòu)形式的服務器,在異構(gòu)方式上可以根據(jù)應用的范圍采用不同的組合方式,如CPU+GPU、CPU+TPU、CPU+其他的加速卡等。與普通的服務器相比較,在內(nèi)存、存儲、網(wǎng)絡方面沒有什么差別,主要在是大數(shù)據(jù)及云計算、人工智能等方面需要更大的內(nèi)外存,滿足各種數(shù)據(jù)的收集與整理。
我們都知道普通的服務器是以CPU為算力的提供者,采用的是串行架構(gòu),在邏輯計算、浮點型計算等方面很擅長。因為在進行邏輯判斷時需要大量的分支跳轉(zhuǎn)處理,使得CPU的結(jié)構(gòu)復雜,而算力的提升主要依靠堆砌更多的核心數(shù)來實現(xiàn)。
但是在大數(shù)據(jù)、云計算、人工智能及物聯(lián)網(wǎng)等網(wǎng)絡技術(shù)的應用,充斥在互聯(lián)網(wǎng)中的數(shù)據(jù)呈現(xiàn)幾何倍數(shù)的增長,這對以CPU為主要算力來源的傳統(tǒng)服務提出了嚴重的考驗,并且在目前CPU的制程工藝、單個CPU的核心數(shù)已經(jīng)接近極限,但數(shù)據(jù)的增加卻還在持續(xù),因此必須提升服務器的數(shù)據(jù)處理能力。因此在這種大環(huán)境下,AI服務器應運而生。
現(xiàn)在市面上的AI服務器普遍采用CPU+GPU的形式,因為GPU與CPU不同,采用的是并行計算的模式,擅長梳理密集型的數(shù)據(jù)運算,如圖形渲染、機器學習等。在GPU上,NVIDIA具有明顯優(yōu)勢,GPU的單卡核心數(shù)能達到近千個,如配置16顆NVIDIA Tesla V100 Tensor Core 32GB GPUs的核心數(shù)可過10240個,計算性能高達每秒2千萬億次。且經(jīng)過市場這些年的發(fā)展,也都已經(jīng)證實CPU+GPU的異構(gòu)服務器在當前環(huán)境下確實能有很大的發(fā)展空間。
但是不可否認每一個產(chǎn)業(yè)從起步到成熟都需要經(jīng)歷很多的風雨,并且在這發(fā)展過程中,競爭是一直存在的,并且能推動產(chǎn)業(yè)的持續(xù)發(fā)展。AI服務器可以說是趨勢,也可以說是異軍崛起,但是AI服務器也還有一條較長的路要走。
以上就是小編這次想要和大家分享的內(nèi)容,希望大家對本次分享的內(nèi)容已經(jīng)具有一定的了解。如果您想要看不同類別的文章,可以在網(wǎng)頁頂部選擇相應的頻道哦。