2019計算機(jī)視覺領(lǐng)域頂級會議的論文《非視距物體識別技術(shù)》被收錄
近日,計算機(jī)視覺領(lǐng)域頂級會議 CVPR 2019 的論文接收結(jié)果公布,在超過 5100 篇投稿中,共有 1300 篇被接收。其中來自合刃科技的一篇關(guān)于非視距物體識別技術(shù)的亮點論文被收錄,在世界舞臺上展示了中國人工智能企業(yè)的科研實力。
該論文中提出的非視距物體識別技術(shù),就是利用光的相干性從微弱的反射光信號中獲取光場相位信息,結(jié)合深度學(xué)習(xí)的人工智能算法,實現(xiàn)對障礙物后面的物體的實時識別。
合刃科技一直注重研發(fā)與應(yīng)用的緊密結(jié)合,此次提出的非視距物體識別技術(shù),可以在自動駕駛、安防監(jiān)控及其他的眾多領(lǐng)域應(yīng)用落地,解決遮擋物和非視距成像區(qū)域的目標(biāo)監(jiān)測問題。比如實現(xiàn)自動駕駛的傳感器實時探測到拐彎處車輛和行人,感知被前方車輛遮擋處的行人突然橫穿危險行為;捕獲被遮擋角落的危險行為,包括打架斗毆或其他有危險性的動作,消防救援時獲取屋內(nèi)被困人員的信息等。
該論文的方法跟其他的非視域識別相比,有不少優(yōu)勢。比如熟知的TOF(Time of Flight)飛行時間法,其實際應(yīng)用中需要昂貴的設(shè)備,比如單光子探測器和納秒脈沖激光(價值幾十萬人民幣)。而這篇論文的方法只需要普通激光器和CMOS圖像傳感器,大大降低了應(yīng)用成本。另外,合刃科技此次論文中采用的非成像識別方法,比成像識別具有更好的簡易型和魯棒性,無需昂貴的成像設(shè)備,算法中也無需復(fù)雜且耗時的圖像重構(gòu),TOF方法一次數(shù)據(jù)采集和圖像重建需要數(shù)分鐘,但是該論文的方法用時不到一秒。
值得一提的是,在此次論文提出的非視距物體識別技術(shù)之外,合刃科技還致力于全息全頻機(jī)器視覺系統(tǒng)的研發(fā)和商業(yè)化。從數(shù)據(jù)采集端進(jìn)行重新設(shè)計,應(yīng)用了先進(jìn)的集成光學(xué)技術(shù),顛覆性的對CMOS圖像傳感器進(jìn)行納米結(jié)構(gòu)升級,結(jié)合AI算法,軟硬件一體化采集多個維度的光學(xué)信息,全面提升視覺識別性能。技術(shù)將應(yīng)用于智能制造、安防、無人駕駛輔助駕駛、智能穿戴設(shè)備等多個領(lǐng)域。
合刃科技向來注重人工智能專業(yè)人才團(tuán)隊的建設(shè)。高端創(chuàng)新人才團(tuán)隊的匯聚和全鏈條知識產(chǎn)權(quán)的布局,將有效維護(hù)項目技術(shù)的領(lǐng)先性,保護(hù)項目的商業(yè)價值。 此次論文的收錄便是合刃專業(yè)人才團(tuán)隊培養(yǎng)的良好反饋與智慧結(jié)晶。
光是一種電磁波,有很多的特征物理量,包含相位、光強(qiáng)、光譜、偏振、方向等信息。此次論文提出的非視距物體識別技術(shù),在傳統(tǒng)的計算機(jī)視覺僅用到了光強(qiáng)信息的基礎(chǔ)上,僅增加了對相位信息的收集與利用,便能夠創(chuàng)造出如此豐富的應(yīng)用場景,解決多個領(lǐng)域里的難點痛點。隨著我們對“光”的進(jìn)一步探索,對更多的物理量進(jìn)行獲取與計算,必然能打破識別邊界。
光電+AI,這個世界遠(yuǎn)比我們能夠看到的更加豐富多彩。