Wave Computing推出從云端到邊緣的計算平臺-TritonAI? 64 IP平臺
中國·上海,2019年7月1日- Wave Computing(以下簡稱Wave),是一家位于美國硅谷、致力于推動人工智能深度學(xué)習從邊緣計算到數(shù)據(jù)中心的計算加速方案的公司,近日于深圳參加了由電子發(fā)燒友網(wǎng)舉辦的2019人工智能技術(shù)峰會。本次大會,以“加速中國 AI 落地” 為主題,旨在為人工智能產(chǎn)業(yè)上下游搭建一個技術(shù)交流、資源對接和產(chǎn)品落地的平臺。Wave CompuTIng中國區(qū)總經(jīng)理熊大鵬博士應(yīng)邀出席本次大會,與人工智能芯片、算法、系統(tǒng)和平臺供應(yīng)商與系統(tǒng)集成商等廠商分享了Wave服務(wù)于AI邊緣計算的芯片設(shè)計——TritonAI? 64 IP平臺。
Wave CompuTIng成立于2010年,其核心產(chǎn)品數(shù)據(jù)流處理器單元(DPU)采用非馮諾依曼(von Neumann)架構(gòu)的軟件可動態(tài)重構(gòu)處理器CGRA(Coarse grain reconfigurable array/accelerator)技術(shù),適用于大規(guī)模異步并行計算問題。其主要優(yōu)勢是使得硬件更加靈活地適配于軟件,在可編程性(或通用性)和性能方面達到很好的綜合平衡,降低AI芯片開發(fā)門檻,不會受到GPU等加速器中存在的內(nèi)存瓶頸的影響。獨創(chuàng)的“軟件可動態(tài)重構(gòu)處理器架構(gòu)(CGRA)以及數(shù)據(jù)流(Data Flow)計算”正成為AI計算領(lǐng)域具有革命性意義的處理器架構(gòu)。它旨在通過基于數(shù)據(jù)流架構(gòu)的一系列產(chǎn)品改變傳統(tǒng)的人工智能計算。
2019 年,Wave CompuTIng針對邊緣計算市場的算力需求,將MIPS技術(shù)與Wave旗下WaveFlow?和WaveTensor?技術(shù)相結(jié)合,推出TritonAI? 64 IP平臺,該平臺融合了Wave CompuTIng旗下的幾大核心技術(shù),MIPS 高性能、多線程、低功耗 IP、WaveFlow?、WaveTensor?等先進技術(shù),具有高可擴展性、高兼容性、可客制化的特點,為產(chǎn)品提供高效、低耗的AI計算加速能力。
作為一款高度靈活的軟件平臺,TritonAI? 64 IP平臺靈活適配到AI加速引擎WaveFlowTM 和WaveTensorTM,滿足不斷變化的AI計算需求。這些加速引擎被一個異構(gòu)編程平臺管理,該編程平臺由一個統(tǒng)一的API平臺管理,即Wave Run-Time (WaveRTTM)平臺。WaveRT平臺在 MIPS 上運行, 并幫助對 WaveFlow 和 WaveTensor 運行引擎進行編程, 以分析和執(zhí)行恰當?shù)?AI任務(wù);這種軟件集中管理的方式,可以很好地把AI應(yīng)用、AI框架和 AI算法從它們依賴執(zhí)行的目標計算單元抽象出來,從而可以把算法按并行執(zhí)行的方式匹配到Wave相應(yīng)的計算單元上去,從而提升SoC 的AI計算性能。
“TritonAI? 64 IP平臺繼承了DPU對神經(jīng)網(wǎng)絡(luò)強大的原生表示和支撐能力,適配多種神經(jīng)網(wǎng)絡(luò),對于今天各種變化不斷的算法,都可以很容易地部署在TritonAI? 64 IP平臺上。這體現(xiàn)了Wave Computing對眾多AI領(lǐng)域應(yīng)用的深刻理解,和對客戶需求的全方位考慮?!毙艽簌i博士介紹道。