機器人擁有人一樣的意識,一直是我們目前難以攻克的難題。在近日,加州大學伯克利分校的科學家和谷歌人工智能(AI)研究部門之一的Google Brain在Arxiv.org上發(fā)表的一份預印本論文中描述了一種人工智能系統(tǒng),即通過深度強化學習來學習走路,簡單來說,就是教“一個四足機器人來穿越熟悉和不熟悉的地形”。
目前,在此預印論文中表示,他們已經(jīng)研究出了新型算法,并且根據(jù)算法演練,實現(xiàn)了機器人自己走路。這也就表明了人工智能系統(tǒng)可以讓機器人學會人一樣的用靈活的方式掌握和操縱自身或者周圍的物體。
隨著近幾年來,機器人領(lǐng)域的發(fā)展和人工智能的崛起,深度學習與強化學習被用來處理控制系統(tǒng)面臨的難題,尤其是在機器人的靈活操縱方面。
在現(xiàn)實生活中,人們很輕而易舉的就將物體堆疊,或者用手工制作各式各樣的工藝品,但是一直以來,機器人卻一直無法跨越靈活性的鴻溝。
要知道的是,機器人靈活性一直以來就面臨很多挑戰(zhàn):
首先,在機器人進行學習時,必須經(jīng)過自身與環(huán)境之間的反復驗證,來獲取數(shù)據(jù)。
其次,機器人還得通過自身的觀察來導出這些行為,這里面包含了很強的時間相關(guān)性。
最后,機器人很容易在環(huán)境發(fā)生轉(zhuǎn)變之后,其習慣性的行動后果也不可預估。
我們不知道機器人會采取哪些行為,來描述不可預知的事情,所以,人們無法感知違背探索的事物也致使機器人靈活性受到局限。
預印論文中寫道:深度強化學習可以用于自動獲取一系列機器人任務(wù)的控制器,從而實現(xiàn)將感知輸入映射到低級別動作的策略的端到端學習。其意思就是,假設(shè)機器人在現(xiàn)實世界中可以直接學習運動操縱,那么,每個機器人就能像人一樣,獲取最適合自己的單個的控制器,從而完成自身敏捷性、穩(wěn)健性、能源效率上的突破。
深度強化學習可以通過算法來驅(qū)動機器人獲取大量的數(shù)據(jù)樣本,通過成千上萬的模擬實驗,來取得最好的結(jié)果。
早在2015年,就有科研人員在雜志上發(fā)表論文Human-level control through deep reinforcement learning,論文中提出的深度學習和強化學習相結(jié)合的思想模型,在Atari游戲平臺的演示上,展示出了超越人類水平的表現(xiàn)。
可以預知的是,在未來幾年間,深度強化學習能夠被應(yīng)用在不同的領(lǐng)域,例如在視頻游戲上、在棋類游戲上、控制復雜的機械操作、調(diào)配網(wǎng)絡(luò)資源、為數(shù)據(jù)中心大幅節(jié)能、對機器學習算法自動調(diào)參等等。
這種深度強化學習給機器人帶來的發(fā)展,相信隨著時間,也終將會給我們答案。