伯克利創(chuàng)造出“可看到未來(lái)”的機(jī)器人,能幫助無(wú)人駕駛預(yù)測(cè)事故
加州大學(xué)伯克利分校的計(jì)算機(jī)科學(xué)家們研發(fā)出“可以預(yù)見(jiàn)未來(lái)要發(fā)生的事情”的機(jī)器人技術(shù)。運(yùn)用視覺(jué)預(yù)見(jiàn)技術(shù),在完全自主學(xué)習(xí)的情況下,這種機(jī)器人可以看到如果他們執(zhí)行特定的動(dòng)作會(huì)產(chǎn)生怎樣的結(jié)果。目前的機(jī)器人原型還比較簡(jiǎn)單,只能預(yù)測(cè)幾秒的未來(lái),研究者在NIPS 2017上展示了這項(xiàng)技術(shù)。
對(duì)于嬰幼兒來(lái)說(shuō),玩玩具不僅僅是樂(lè)趣和游戲,這對(duì)他們學(xué)習(xí)和理解世界的運(yùn)作方式是很重要的。受此啟發(fā),加州大學(xué)伯克利分校的研究人員開發(fā)了一個(gè)機(jī)器人,像嬰兒一樣,它從零開始學(xué)習(xí)理解世界,用物體進(jìn)行實(shí)驗(yàn),找出如何以最好的路徑移動(dòng)物體。這樣,機(jī)器人能夠“看到”未來(lái)要發(fā)生的事情。
這個(gè)機(jī)器人名為Vestri,它像嬰兒一樣通過(guò)擺玩物體來(lái)想象如何完成任務(wù)。
UC Berkeley的研究人員開發(fā)了一種機(jī)器人學(xué)習(xí)技術(shù),使機(jī)器人能夠想象自己的行為的未來(lái),這樣它們就能夠知道如何操作以前從未遇到過(guò)的物體。未來(lái),這項(xiàng)技術(shù)可以幫助自動(dòng)駕駛汽車預(yù)測(cè)未來(lái)的路況,或者實(shí)現(xiàn)更智能的家庭機(jī)器人助理,但這個(gè)最初的原型專注于從完全自主的游戲中學(xué)習(xí)簡(jiǎn)單的動(dòng)手技能。
這一技術(shù)被稱為“視覺(jué)預(yù)見(jiàn)”(visual foresight),使用這種技術(shù),機(jī)器人能夠預(yù)測(cè)在執(zhí)行某個(gè)動(dòng)作的一個(gè)步驟時(shí),它們的攝像機(jī)將會(huì)看到什么。這些機(jī)器人的想象力在現(xiàn)在還比較簡(jiǎn)單——只能預(yù)測(cè)幾秒鐘的未來(lái)——但是它們足夠讓機(jī)器人弄清楚如何在桌子上移動(dòng)物體,而不會(huì)碰到障礙物。重要的是,機(jī)器人可以在沒(méi)有人類的幫助的情況下學(xué)會(huì)執(zhí)行這些任務(wù),也不需要有關(guān)物理、環(huán)境或物體的先有知識(shí)。這是因?yàn)橐曈X(jué)想象力是在無(wú)監(jiān)督的探索中從頭開始學(xué)習(xí)的,只有機(jī)器人在桌子上擺玩物體。在這個(gè)游戲階段之后,機(jī)器人構(gòu)建了一個(gè)有關(guān)世界的預(yù)測(cè)模型,并且可以使用這個(gè)模型來(lái)操縱它以前從未見(jiàn)過(guò)的新物體。
“就像我們?nèi)祟惪梢韵胂笪覀兊膭?dòng)作將如何移動(dòng)環(huán)境中的物體一樣,這種方法可以讓機(jī)器人想象不同的動(dòng)作對(duì)周圍的世界將產(chǎn)生怎樣的影響,”伯克利大學(xué)電子工程和計(jì)算機(jī)科學(xué)系助理教授Sergey Levine說(shuō),他所在的實(shí)驗(yàn)室開發(fā)了這項(xiàng)技術(shù)。“這可以在復(fù)雜的現(xiàn)實(shí)世界中實(shí)現(xiàn)對(duì)高度靈活的技能進(jìn)行智能規(guī)劃。”
研究團(tuán)隊(duì)NIPS 2017大會(huì)上進(jìn)行了視覺(jué)預(yù)見(jiàn)技術(shù)的demo。
這個(gè)系統(tǒng)的核心是基于卷積循環(huán)視頻預(yù)測(cè)(convolutional recurrent video prediction)或dynamic neural advection (DNA)的深度學(xué)習(xí)技術(shù)?;贒NA的模型根據(jù)機(jī)器人的動(dòng)作預(yù)測(cè)圖像中的像素如何從一個(gè)幀移動(dòng)到下一幀。最近對(duì)這類模型的改進(jìn),以及大大提高的規(guī)劃能力,使得基于視頻預(yù)測(cè)的機(jī)器人控制能夠執(zhí)行越來(lái)越復(fù)雜的任務(wù),例如在障礙物周圍移動(dòng)玩具并重新定位多個(gè)物體。
“在過(guò)去,機(jī)器人已經(jīng)能夠在人類主管協(xié)助并提供反饋的條件下學(xué)會(huì)技能,這項(xiàng)新工作令人興奮的地方在于,機(jī)器人可以完全自主地學(xué)習(xí)一系列的視覺(jué)對(duì)象操作技能。”Levine實(shí)驗(yàn)室的一名博士學(xué)生、最初的DNA模型的發(fā)明人Chelsea Finn說(shuō)。
利用這項(xiàng)新技術(shù),機(jī)器人將物體推到桌子上,然后利用所學(xué)習(xí)的預(yù)測(cè)模型來(lái)選擇將物體移動(dòng)到所需位置的動(dòng)作。機(jī)器人利用從原始攝像頭觀察的學(xué)習(xí)模型來(lái)自學(xué)如何避開障礙物,并在障礙物周圍推動(dòng)物體。
“人類的一生中,通過(guò)數(shù)百萬(wàn)次與各種各樣的物體的互動(dòng),在沒(méi)有任何教師的情況下學(xué)習(xí)操控物體的技能。我們已經(jīng)證明,建立一個(gè)利用大量的自主收集的數(shù)據(jù)來(lái)學(xué)習(xí)廣泛適用的操作技能的機(jī)器人系統(tǒng)也是可行的,特別是推動(dòng)物體這一技能。”Frederik Ebert說(shuō),他是Levine實(shí)驗(yàn)室的一名研究生,這個(gè)項(xiàng)目的研究者之一。
由于通過(guò)視頻預(yù)測(cè)的控制僅依賴于可以由機(jī)器人自主收集的觀察,例如通過(guò)攝像機(jī)收集的圖像,因此這一方法是通用的,具有廣泛的適用性。與傳統(tǒng)的計(jì)算機(jī)視覺(jué)方法不同,傳統(tǒng)的計(jì)算機(jī)視覺(jué)方法需要人類為數(shù)千甚至數(shù)百萬(wàn)圖像進(jìn)行手工標(biāo)記,構(gòu)建視頻預(yù)測(cè)模型只需要未標(biāo)注的視頻,因此可以完全由機(jī)器人自主采集。事實(shí)上,視頻預(yù)測(cè)模型也已經(jīng)被應(yīng)用于從人類活動(dòng)到駕駛的各種數(shù)據(jù)集,并且取得了令人信服的結(jié)果。
Levine說(shuō):“嬰兒可以通過(guò)玩玩具、擺動(dòng)玩具、抓握等等來(lái)理解世界。我們的目標(biāo)是讓機(jī)器人做同樣的事情:通過(guò)自主的互動(dòng)來(lái)了解世界是如何運(yùn)作的。”他說(shuō):“這個(gè)機(jī)器人的能力雖然仍然有限,但它的技能完全是自主學(xué)習(xí)的,這讓它可以通過(guò)構(gòu)建之前觀察到的互動(dòng)模式來(lái)預(yù)測(cè)復(fù)雜的物理互動(dòng)。”
UC Berkeley的科學(xué)家們將繼續(xù)通過(guò)視頻預(yù)測(cè)研究機(jī)器人控制,專注于進(jìn)一步改進(jìn)視頻預(yù)測(cè)和基于預(yù)測(cè)的控制,以及開發(fā)更復(fù)雜的方法,使機(jī)器人可以收集更集中的視頻數(shù)據(jù),用于復(fù)雜的任務(wù),例如拾取和放置物體,操縱布或繩索等柔軟和可變形的物體,以及組裝。