圖像識別、AI、無人駕駛、機器人等未來趨勢技術(shù),被一班年輕大學生“玩”出新高度。作為國際性的大學生機器人賽事,第十七屆全國大學機器人大賽2018 RoboMaster機甲大賽日前圓滿落幕,本屆大賽共吸引了全世界近200支戰(zhàn)隊和近萬名學生參加,經(jīng)過近5個月激烈比賽,廣州本地高校華南理工大學“華南虎”戰(zhàn)隊,憑借過硬的實力成為衛(wèi)冕冠軍。
每屆機甲大賽的最大亮點就是體現(xiàn)高端制造業(yè)發(fā)展趨勢,今年圖像識別的應用成為決勝的重要因素之一。目前,圖像識別是除語音識別外,人機交互的重要手段之一。蘋果、微軟、谷歌、英特爾、華為等企業(yè)都紛紛致力于讓機器具備深度學習能力,讓圖形識別更智能,讓計算機、機器人“看”世界。
今年的RoboMaster(以下簡稱RM)機甲大賽類似于手機游戲《王者榮耀》的模式,被稱為《王者》的機器人版。一支團隊分為英雄機器人、步兵機器人、工程機器人、空中機器人、哨兵機器人共5個角色,其中,步兵機器人有三個,其他角色機器人均有一個。對戰(zhàn)雙方通過機器人之間的協(xié)同工作、射擊等進行對抗,最后“擊毀”對方基地或基地血量高者勝利,而且每局限制在7分鐘之內(nèi)。
機甲大賽的科技含量在于參賽戰(zhàn)隊需要操作團隊親自研發(fā)的機器人,從一個細小的零件開始,焊接、裝拼、核心主板裝嵌、無人機改裝、寫程序、調(diào)試……到最后完成和操控一支機器人隊伍。近日,全媒體記者來到位于華南理工大學五山校區(qū)的機器人實驗室,里面放置著零件焊接的機器、無數(shù)的裝配工具、排線、電路板等,還有用于寫程序的電腦。
要制作如此高比賽級別的機器人,過程是漫長的,經(jīng)歷無數(shù)次反復制作與測試。例如步兵機器人頂端是一個云臺,包含了子彈發(fā)射器,底部是四個輪子組成、能靈活轉(zhuǎn)向的“車輛”。隊員李佩佩表示,目前這款參加比賽的步兵機器人,不是團隊做出來的“唯一”步兵機器人,“之前有機器人已經(jīng)做出來了,因為只有做出實物,并且達到較為完整的程度,才能進行測試。雖然比如今這輛更加小巧和靈活,但由于車速以及穩(wěn)定性沒有后者快與良好,所以被放棄了”。一臺步兵機器人從機械加工到電控“上電”,完成出來大概半個月時間。據(jù)介紹,制造出一臺英雄機器人大概需要6位成員共同完成。整個戰(zhàn)隊中,工程與英雄機器人復雜性相對較高,其中,英雄機器人的難點在需要快速“取彈”,這是比賽決勝因素之一,“我們的優(yōu)勢就在于英雄機器人取彈快,一次性能取兩個彈藥箱,時間在2~3秒之間?!标爢T李佩佩說。
衛(wèi)冕“秘籍”:
視覺研發(fā) 幫助機器人自動瞄準更精確盡管RM大賽每年的規(guī)則都有所更新,今年采用的技術(shù)和零件明年不能用,但是由于大賽有一項固定規(guī)則就是射擊,因此打擊、識別、發(fā)射等項目都是一眾強隊鉆研的方向。
根據(jù)賽制,發(fā)射出的子彈必須打在對方機器人身上規(guī)定的裁判系統(tǒng)位置才算有效——讓對方扣掉血量。射擊技術(shù)的一個核心是機器人射擊子彈的彈道要穩(wěn)定與精準,RM官方對子彈的射速有上限規(guī)定,每個具備射擊能力的機器人的子彈發(fā)射口都有一個測速的裝置,假如檢測到子彈超速就會扣掉血量。所以,參賽隊伍都會盡量在限速的情況下做到高速。
視覺組成員楊澤霖對此解釋道,比如RM官方的限速是25米/秒,團隊就要做到每顆子彈的速度均是24~25米/秒,并且一顆子彈都不超過上限。另外,子彈不能卡住“槍管”,若是卡住了就全場都不能發(fā)彈了——這亦是眾多隊伍遇到的難題之一。楊澤霖介紹,今年的機器人采用了較多的氣動結(jié)構(gòu),相比用電機而言,前者取彈速度更快,而且也加入了眾多的自動輔助技術(shù),例如使用相機自動對位,相比人工對位,前者更加穩(wěn)定、準確和快速。據(jù)了解,上屆賽事中僅有極個別隊伍采用了自動瞄準技術(shù),到了本屆比賽,這一技術(shù)已成機器人的“標配”。據(jù)視覺組隊員楊澤霖表示,團隊機器人身上裝載的攝像頭能自動識別對方,自動跟隨過去,這也是圖形識別技術(shù)的應用。
機器人擁有“眼睛”視覺測試需要反復多次調(diào)試
據(jù)了解,華工戰(zhàn)隊今年主要將圖像識別運用到了各機器人的自動瞄準、步兵機器人激活大小能量機關、工程和英雄機器人自動取箱、補給機器人自動給子彈這4個方面,“今年所有機器人都加載視覺識別程序,例如補給站機器人就是自動識別并跟機器人對接進行補彈的”,視覺組隊員解釋,圖像識別技術(shù)使機器人的速度和穩(wěn)定性有很大提升。
然而,為機器人裝上攝像頭,寫入自動圖像識別程序后,讓它能準確地識別圖像并不簡單?!耙驗閷嶋H環(huán)境與工業(yè)試驗環(huán)境是兩回事”,視覺組成員成斌告訴全媒體記者,團隊有一個獨立的視覺實驗室進行機器人視覺測試,測試并非一兩次就能完成,需要多次反復調(diào)試。因為實際場景的光照強度、光照方向、曝光時間和增益等,都會影響機器人的視覺“能力”。例如在賽場上復雜的光線或者突如其來的光照,都會給機器人戰(zhàn)隊的視覺系統(tǒng)帶來困難。視覺組隊員表示,他們需要做足夠多的實驗測試,模擬實際環(huán)境較為充分,“我們會模擬不同的光線情況,將眾多的實際情況考慮進去”。
據(jù)了解,目前團隊所研究的識別技術(shù),優(yōu)勢在于延時低、轉(zhuǎn)換回來的坐標較為精準,這讓機器人打擊的準確率很高。
讓機器像人類一樣觀察和理解世界未來:除了圖像 還有視頻識別
作為機器視覺系統(tǒng)的重要組成部分之一的圖像處理應用,相當于人的大腦對系統(tǒng)獲取的圖像,做出正確判斷。除了在攝像頭中加入圖形識別功能外,據(jù)了解,今年華工戰(zhàn)隊的機器人換上了麒麟970,這個人工智能移動計算平臺最大的特點之一是AI場景識別,因為除了CPU外,更擁有具有獨立神經(jīng)處理單元(NPU),AI運算相比CPU處理能效提升50倍,性能提升25倍。據(jù)了解,從去年全球科技廠商蘋果在iPhone X上使用了具備神經(jīng)網(wǎng)絡引擎的A11仿生處理器后,目前,眾多科技廠商的高端處理器都帶有了“深度學習”能力,并且集中“火力”在圖像識別上。高通、英特爾、谷歌、英偉達等都專門開發(fā)針對圖像識別的平臺。
圖像識別,被認為是人工智能科技領域中,除語音交互外,人機交互中的重要手段之一,例如目前消費者們經(jīng)常在中高端手機產(chǎn)品上看到的人臉識別技術(shù),就是圖像識別功能之一。另外,目前眾多智能終端擁有AI拍照功能、相冊篩選等等,同樣是圖像識別發(fā)揮著重要的作用。
根據(jù)科技行業(yè)最新的消息稱,日前,谷歌拋出了新的黑科技:視頻內(nèi)容識別。通過這一技術(shù),能夠識別視頻當中的各種動物、物體、風景等內(nèi)容,例如你要在視頻當中搜索一只狗,搜索引擎很快就能為用戶找出視頻中包括狗的畫面。業(yè)界解釋,其中可以通過圖像識別的原理來理解視頻識別。實際上,國內(nèi)有物聯(lián)網(wǎng)團隊亦致力于這一方面,正把圖形識別、視頻識別的研究用于在城市交通監(jiān)測當中。
記者觀察
科技技術(shù)有應用場景,才得以深入發(fā)展以及發(fā)掘新的研究方向?!叭A南虎”戰(zhàn)隊的指導老師、來自華南理工大學機械與汽車工程學院講師張東認為,只有通過動手實踐,知識才能真正掌握,成為有價值有意義的知識。
作為國際性的機器人賽事,機甲大賽并非僅有刺激性與觀賞性??v觀整個比賽的機器人競技模式,除了不同角色的機器人本身擁有不同“含金量”的技術(shù)外,更重要的是團隊合作、整體戰(zhàn)術(shù),以及考驗不同角色機器人之間的協(xié)同。業(yè)內(nèi)專家表示,多機器人的協(xié)同控制在學術(shù)圈是研究熱點。今年3月在平昌冬奧會閉幕式的“北京八分鐘”表演中,我國新松的24臺人工智能機器人控制著“冰屏”與24名輪滑演員,配合地面投影不斷變幻曼妙舞姿,當中講求的就是多機協(xié)同、人機協(xié)同——如果有一臺機器人稍有延遲或動作偏差,整個演出都會失敗。