解讀人工智能機器的發(fā)展現(xiàn)狀:未來需要克服四類AI之間界限
據(jù)美國生命科學(xué)網(wǎng)報道,在人工智能(AI)研究領(lǐng)域,業(yè)內(nèi)人士對最新突破產(chǎn)生的共識就是,有情感意識的智能機器距離成為現(xiàn)實還很遙遠(yuǎn)。在理解語音指令、分辨圖像、駕駛汽車以及打游戲方面,機器已經(jīng)比人類做得更好。那么,還需要多久,機器才能自然行走在人類中間?
美國白宮發(fā)布的最新AI報告,對這種夢想持懷疑態(tài)度。報告中稱,未來20年中,我們可能還無法看到機器具有廣泛的應(yīng)用智力能力或超越人類的智力。但是將來,在執(zhí)行越來越多的任務(wù)中,機器的表現(xiàn)將達到甚至超過人類水平。
作為AI研究人員,我很高興自己從事的研究成為美國政府最為關(guān)注的領(lǐng)域之一。但白宮報告幾乎都聚焦于我所謂的“最無聊的AI”,并拒絕接受AI分為不同種類的觀點。與此同時,報告中也沒有闡述AI進化如何幫助開發(fā)不斷完善的AI系統(tǒng),計算模型如何能幫助我們理解人類智能如何進化等。
白宮AI報告中重點介紹了被稱為“主流AI”的工具,包括機器學(xué)習(xí)和深度學(xué)習(xí)。這些技術(shù)可以玩智力游戲《Jeopardy》、在史上最復(fù)雜游戲中擊敗人類圍棋大師等。當(dāng)前的智能系統(tǒng)的確能夠處理海量數(shù)據(jù),并迅速做出復(fù)雜的運算。但是它們?nèi)鄙僖粋€重要元素,它將是我們將來制造情感機器的關(guān)鍵。
除了教授機器學(xué)習(xí),我們還有更多工作要做。我們需要克服四類不同AI之間的界限,這些界限將AI與我們隔離開來。
第一類AI:響應(yīng)式機器絕大多數(shù)基本型的AI系統(tǒng)都屬于純粹的響應(yīng)式機器,它們既不具備形成記憶的能力,也不具備借鑒過去經(jīng)驗的能力,以便幫助做出當(dāng)前決策。IBM的超級電腦“深藍”曾經(jīng)于20世紀(jì)90年代末期擊敗人類國際象棋大師加里·卡斯帕羅夫(Garry Kasparov),它就是響應(yīng)式機器的完美代表。
“深藍”可以識別棋盤上的棋子,并知道如何移動棋子。它甚至還能預(yù)測自己和對手的下一步棋路,并在諸多可能性中選擇最優(yōu)方案。但是“深藍”沒有“過去”的概念,也沒有此前的記憶。除了偶爾利用國際象棋的具體規(guī)則,比如反對重復(fù)同樣的步驟3次外,“深藍”幾乎會忽略此前發(fā)生的一切。它的重點就是關(guān)注當(dāng)前棋盤上的棋子,并為下一步移動做出選擇。
這類智能涉及到計算機直接感知的世界,并作用于其所能看到的地方。它不依賴于世界的內(nèi)部概念。在開創(chuàng)性的論文中,AI研究專家羅德尼·布魯克斯(Rodney Brooks)認(rèn)為,我們應(yīng)該只制造這類機器。他的主要理由是,人們并不擅長編程計算機使用的精確模擬世界。
我們當(dāng)前研發(fā)的智能機器要么根本沒有這類世界的概念,要么只有執(zhí)行特定任務(wù)的智能機器擁有十分有限的概念。“深藍”的設(shè)計創(chuàng)新并沒有擴大計算機考慮的可能步驟的范圍。相反,研究人員發(fā)現(xiàn)了縮小其視野的方法,以防止其追求某些潛在的未來步驟,這取決于其如何評價結(jié)果。沒有這種能力,“深藍”可能需要更強大的計算機才能擊敗卡斯帕羅夫。
與之類似,谷歌的AlphaGo曾擊敗人類圍棋大師,但它也不能評估未來所有的潛在步驟。其分析方式比“深藍”更復(fù)雜,利用神經(jīng)網(wǎng)絡(luò)評估游戲進展。這些方法的確提高了AI系統(tǒng)的能力,讓它們在玩特定游戲時表現(xiàn)更好。但它們無法被輕易改變或應(yīng)用到其他情況。這些計算機化的想象沒有廣泛世界的概念,這意味著它們無法超越特定任務(wù)的功能限制,因此很容易受到愚弄。
此外,它們不能以交互的方式參與到世界中,這是我們暢想未來AI系統(tǒng)具備最重要能力。相反,這些機器每次遇到相同的情況時,它們就會執(zhí)行預(yù)先編程的相同策略。在確保AI系統(tǒng)可信性方面,這可能是個好消息,比如你希望自己的無人駕駛汽車成為可以信賴的司機。但如果我們希望機器能夠真正參與互動,對世界作出真正反應(yīng),這可能會很糟糕。這些最簡單的AI系統(tǒng)永遠(yuǎn)不會感到無聊、感興趣或悲哀等情緒。
第二類AI:有限記憶機器這類AI可以短暫回顧過去的經(jīng)驗,無人駕駛汽車已經(jīng)可以做到這一點。舉例來說,它們會觀察其他汽車的速度和行進方向。它們現(xiàn)在還無法立刻完成這個動作,而是需要識別特定目標(biāo),并監(jiān)督它們一段時間。
這些觀察會被添加到無人駕駛汽車預(yù)先編程的模擬世界中,包括車道標(biāo)記、交通燈以及其他重要元素,比如公路曲線等。此外還包括汽車決定何時變道,以避免被附近的汽車撞到。
但是這些有關(guān)過去的簡單信息只是短暫的,不會被儲存在汽車已經(jīng)了解到的經(jīng)驗庫中,經(jīng)驗庫相當(dāng)于人類司機積累的駕駛經(jīng)驗。那么,我們?nèi)绾谓⒛軌虺浞帜M世界、記住它們的經(jīng)驗以及學(xué)習(xí)如何處理新情況的AI系統(tǒng)呢?布魯克斯認(rèn)為,很難做到。我的研究方法從達爾文進化論中吸取靈感,即可通過機器自己建立模擬世界以彌補人類的短板。
第三類AI:心智理論機器這可能是我們已經(jīng)建造的AI機器與將來要建造的AI機器之間的重要鴻溝。未來的AI機器將更加先進,它們不僅會自己建立模擬世界,還會模擬世界上其他對象和實體。在現(xiàn)實世界,這被稱為“心智理論”,即理解世界上的人類、生物都有思想和情緒,而這些思想和情緒可影響他們的行為。
這對人類形成社會時至關(guān)重要,因為它們允許我們進行社會交流。如果不相互了解動機和意圖,不考慮其他人對自己或環(huán)境的了解,最好的情況下是協(xié)作非常困難,最壞的情況是根本不可能有協(xié)作。
如果AI系統(tǒng)要想走在人類中間,它們必須能夠理解我們每個人都有不同的想法和感受,并期望自己被如何對待。為此,它們必須對自己的行為進行相應(yīng)調(diào)整。
第四類AI:自我意識機器AI發(fā)展的最后階段就是建立能夠形成代表它們自己的模擬世界的系統(tǒng)。最終,我們的AI專家不僅需要自己理解意識,還要建造擁有自我意識的機器。從這種意義上說,第四類AI是第三類AI所代表的“心智理論”機器的延伸,同時也是意識被稱為“自我意識”的原因。
有意識的存在可以意識到他們自己,了解它們的內(nèi)部狀態(tài),能夠預(yù)測其他人的感受。我們假設(shè)有人在后面狂按喇叭代表憤怒和不耐煩,因為我們那樣做時也代表著同樣感受。沒有心智理論,我們就無法做出這些推論。
現(xiàn)在距離創(chuàng)造具有自我意識的機器可能還很遙遠(yuǎn),我們應(yīng)該集中努力打造理解記憶、學(xué)習(xí)以及基于過去經(jīng)驗作出決定的AI能力。這是理解人類智慧的重要步驟。如果我們想要設(shè)計或開發(fā)超越這些分類的機器,這一點也非常重要。