不用恐慌,新AlphaGo離強人工智能還有十萬八千里
繼去年AlphaGo以4:1的成績戰(zhàn)勝李世石之后,最近一周在線上橫掃圍棋棋壇、四處挑戰(zhàn)圍棋高手并取得60連勝的神秘棋手Master終于揭開面紗,正式新版的AlphaGo,對人工智能的恐慌又彌漫社交網(wǎng)絡(luò)。在研究認(rèn)知與心靈哲學(xué)的夏永紅看來,雖然AlphaGo的算法設(shè)計非常精妙,它仍然基于對大數(shù)據(jù)的暴力統(tǒng)計運算,這和人類智能的運作過程完全是兩回事。
“思維是人類不朽靈魂的一種機能,因此任何動物和機器都不能思維。”
“機器思維的后果太可怕了,我們希望并且相信機器做不到這一點。”
“哥德爾定理表明,任何形式系統(tǒng)都是不完備的,它總會面臨自身不能判定的問題,因此機器難以超越人心。”
“機器沒有現(xiàn)象意識體驗,它沒有思想也沒有感情。”
“機器沒有像人一樣豐富多彩的能力。”
“機器無法創(chuàng)造出什么新的東西。它所能做的都是那些我們知道怎樣命令它去執(zhí)行的事情。”
“神經(jīng)系統(tǒng)不是離散狀態(tài)的機器,機器不能模擬它。”
“要將所有指導(dǎo)行為的常識形式化是不可能的。”
“人有心靈感應(yīng)的能力,而機器沒有。”
這些對人工智能(artificial intelligence,以下簡稱AI)的反對意見,是AI先驅(qū)阿蘭·圖靈在他的著名論文《計算機器與智能》(1950年)中最早羅列的。雖然圖靈已經(jīng)對它們做過初步的批駁,但幾乎所有后來對AI的各種反駁論證,都可以從這些觀點中找到它們雛形。從AI誕生之日起,對它的各種質(zhì)疑和批判,就一刻也沒有停止過。
然而,繼Alphago去年三月戰(zhàn)勝李世石,最近又化身Master掃蕩中日韓頂尖高手之后,這些觀點似乎已經(jīng)銷聲匿跡了。已經(jīng)沒有多少人懷疑,AI將在一個所謂的奇點(singularity),全面超越人類的智能,唯一有爭議的,只是奇點什么時候到來。甚至那些敵視AI的人,也并不懷疑奇點的可能性,唯一擔(dān)憂的竟然是人類可能被AI淘汰。然而,這種盲目樂觀主義,既可能不負(fù)責(zé)任地傷害AI的未來發(fā)展——期望越高失望越大,也缺乏對當(dāng)前AI的嚴(yán)格審視——如果我們了解Alphago是如何運作的,將會發(fā)現(xiàn)它仍然共享了所有AI所面臨的哲學(xué)難題。
一、人工智能為何不智能?
圖靈所列舉的那些批判,有很多在后來都發(fā)展成了更為精細(xì)的論證。比如,基于哥德爾定理的批判后來被哲學(xué)家盧卡斯和物理學(xué)家彭羅斯進一步發(fā)展;常識不可形式化的難題,后來出現(xiàn)在框架問題和常識問題中;機器只是機械地按照規(guī)則行動,而不能自主思考,是后來的中文屋論證和符號奠基問題關(guān)切的核心;機器沒有現(xiàn)象意識體驗,是那些主張第一人稱體驗和感受質(zhì)的心靈哲學(xué)家們針對AI的主要觀點。
(1)框架問題是困擾AI最嚴(yán)重的問題之一,至今仍然未得到有效的解決。AI最初的范式是符號主義,基于符號邏輯來對世界進行表征。框架問題就是內(nèi)在于AI的表征過程的一個難題。認(rèn)知科學(xué)家丹尼特舉過這樣的例子來描述框架問題:我們對機器人發(fā)出指令:進入一個放著定時炸彈的房間,將里面的一塊備用電池取出來。但是由于炸藥是和電池都在一個小車上,機器人推車取出電池的時候也會一塊推出炸藥。于是,炸藥爆炸了……我們可以讓機器人推演出一個動作所導(dǎo)致的附帶效果,來避免這種事故。于是,機器人進入房間之后,它開始計算推出車之后會不會改變房間墻壁的顏色,會不會改變車子的輪子……它不知道哪些結(jié)果與它的目標(biāo)相關(guān),哪些不相關(guān)。就在它陷入無限的計算推演的時候,炸藥爆炸了……我們再次對這個機器人作出改進,教他區(qū)分哪些附帶效果和任務(wù)相關(guān),哪些不相關(guān),但就在這個機器人計算哪些相關(guān),哪些無關(guān)的時候,炸藥再次爆炸了。
當(dāng)一個機器人作用于外部世界的時候,世界中的某些事物就可能會發(fā)生變化,機器人就需要對內(nèi)部的表征作出更新。但什么事物會變化,什么事物不會變化,機器人本身卻并不知道,這就需要設(shè)定一個框架來規(guī)定變化的相關(guān)項。但這個框架一方面本身就過于繁冗,另一方面又依賴于具體情境從而更加繁冗,最終會遠(yuǎn)遠(yuǎn)超出計算機的負(fù)荷。這就是所謂的框架問題。
這個問題也常常關(guān)聯(lián)著AI表征中的另一個問題,比如常識問題。我們都知道所謂的阿西莫夫的機器人三律令,即機器人不得傷害人類(人類遇到危險它也必須設(shè)法解救),必須服從人給予它的命令,盡可能保護自己的生存。但實際上,這三定律是很難作為機器人的指令存在的,因為它們并不是規(guī)則明晰、可以有效操作的指令。比如,救人這條律令,在不同的情境下有不同的執(zhí)行手段。當(dāng)一個人上吊的時候,救他的辦法是剪斷繩子;但當(dāng)一個人在五層樓的窗戶下拉著一條繩子呼救的時候,救他的辦法就是拉起而不是剪斷那條繩子。于是,讓人三律令工作起來,就必須對大量的背景知識進行形式化??上У氖?,1980年代AI第二次浪潮中的專家系統(tǒng)和知識表征工程,就是因為無法處理常識表征的問題而最終失敗。
(2)AI的另一個難題就是中文屋論證以及由此衍生出來的符號奠基問題。心靈哲學(xué)家塞爾設(shè)計過這樣一個思想實驗,他假定自己被關(guān)在一個密閉的屋子中,屋子中有一本英文說明手冊,它描述了如何根據(jù)漢字的字形(而不是語義),給出一個中文問題對應(yīng)的中文答案。中文屋中的塞爾從窗口接收中文問題,然后根據(jù)這本英文手冊,給出相應(yīng)的中文答案。從中文屋外面的人看來,似乎塞爾是懂得中文的。但實際上,塞爾根本不理解這些中文問題和答案的任何意義。在塞爾看來,數(shù)字計算機就類似于中文屋中的塞爾,它只是根據(jù)物理和句法規(guī)則來進行符號串的加工處理,卻完全不理解這些符號的意義。即便計算機表現(xiàn)出了和人類相似的智能行為,但計算機的工作歸根結(jié)底是對符號的處理,但這些符號的意義也并不是計算機所能理解或自主生成的,而是依賴于它們在人類頭腦中的意義。
圖片來源:《視讀人工智能》,第50頁。
后來認(rèn)知科學(xué)家哈納德在塞爾的基礎(chǔ)上,提出了所謂的符號奠基問題:如何讓一個人工系統(tǒng)自主地產(chǎn)生符號的意義,而不需要人類的外部或預(yù)先的賦予。這個問題其實也就是如何讓AI可以自主地從世界中識別出特征量,最終自主地產(chǎn)生與這種特征量對應(yīng)的符號。“深度學(xué)習(xí)”試圖解決這個問題,但其解法并不那么令人滿意。
(3)現(xiàn)象意識問題也是人工智能的難題。前面所述的框架問題和符號奠基問題,實際上涉及的都是如何在一個形式系統(tǒng)中模擬人類的表征活動。但即便這些表征活動都可以被人工智能所模擬,人類意識是否可以還原為表征過程,也是一個頗富爭議的問題。意識的表征主義理論認(rèn)為,所有的意識過程都可以還原為表征過程,但是對于那些出身于或同情現(xiàn)象學(xué)傳統(tǒng)的心靈哲學(xué)家而言,意識包含人類心智中不可消除的主觀意識體驗。我們一般將這種第一人稱體驗稱之為感受質(zhì)或現(xiàn)象意識。心靈哲學(xué)家內(nèi)格爾寫過一篇有名的文章《成為一只蝙蝠是一種什么體驗?》,在他看來,即便我們掌握了關(guān)于蝙蝠的所有神經(jīng)生物學(xué)知識,仍然無法確切地知道蝙蝠的內(nèi)在意識體驗。查爾莫斯也有過類似的假定,比如我們可以假定存在這樣一個僵尸,它的一切活動都表現(xiàn)得像人類一樣,然而,它卻缺乏人類最本質(zhì)的現(xiàn)象意識體驗。在他們看來,意識體驗是無法用表征過程來模擬的。如果這個理論成立的話,表征與意識就是兩個不同的概念,即便強人工智能是可能的,那么它也并不必然就具有意識。
二、Alphago真的智能了嗎?
那么,Alphago是否就真的那么具有革命性,成為AI發(fā)展的一個里程碑呢?實際上,Alphago并沒有采用任何新的算法,從而也就共享了這些傳統(tǒng)算法的局限。
Alphago的基本設(shè)計思路是,基于監(jiān)督式學(xué)習(xí)與強化學(xué)習(xí)兩種模式,通過構(gòu)造兩個神經(jīng)網(wǎng)絡(luò)即決策網(wǎng)絡(luò)和價值網(wǎng)絡(luò)來評估棋盤位置和決定走子動作。Deepmind的工程師首先采用監(jiān)督式學(xué)習(xí),根據(jù)大量的人類棋局?jǐn)?shù)據(jù)訓(xùn)練了一個策略網(wǎng)絡(luò),它可以從這些棋局中學(xué)習(xí)人類棋手的走子定式之后。但學(xué)會這些定式并不能成為高手,還需要對走子之后的棋局作出評估,從而選擇最佳的走法。為此,Deepmind采用了強化學(xué)習(xí)的辦法,根據(jù)之前訓(xùn)練出來的策略網(wǎng)絡(luò)不斷地自我對弈(人類棋局的數(shù)據(jù)遠(yuǎn)遠(yuǎn)不夠了),訓(xùn)練了一個強化學(xué)習(xí)的策略網(wǎng)絡(luò),它的學(xué)習(xí)目標(biāo)不再是模擬人類棋手的走法,而是學(xué)習(xí)如何贏棋。Alphago最具創(chuàng)新性的地方在于,它根據(jù)這些自我對弈的數(shù)據(jù),訓(xùn)練了一個估值網(wǎng)絡(luò),可以對整個盤面的優(yōu)劣作出評估。與人類對弈的時候,Alphago應(yīng)用了蒙特卡洛搜索樹來整合這些神經(jīng)網(wǎng)絡(luò)。首先,策略網(wǎng)絡(luò)可以搜索出各種走法,然后估值網(wǎng)絡(luò)來對這些盤面的勝率進行評估,最終決定走法。相比于傳統(tǒng)的單純暴力搜索,因為策略網(wǎng)絡(luò)形成了定式走法,估值網(wǎng)絡(luò)在對這些走法進行評估刪減,最終可以大大減少搜索的寬度和深度。
相比于傳統(tǒng)AI,近幾年來的深度學(xué)習(xí),以及Alphago所復(fù)興的強化學(xué)習(xí),他們已經(jīng)表現(xiàn)了人類智能中從樣本數(shù)據(jù)和環(huán)境反饋中不斷學(xué)習(xí)的能力。但總體來看,雖然Alphago的算法設(shè)計非常精妙,它仍然基于對大數(shù)據(jù)的暴力統(tǒng)計運算,這和人類智能的運作過程完全是兩回事。Alphago進行了幾千萬局的對弈,并對這些局面進行統(tǒng)計分析,然后才得到了與人類同樣的棋力。但一個天才棋手達到同等程度的棋力,只需要下幾千盤棋,不到Alphago的萬分之一。因此,Alphago的學(xué)習(xí)效率仍然是十分低下的,這說明,它仍然沒有觸及到人類智能中最本質(zhì)的部分。
更關(guān)鍵的是,深度學(xué)習(xí)仍然不能免于那些困擾傳統(tǒng)AI的理論難題。比如說機器人的框架問題,需要對機器人所處的復(fù)雜和動態(tài)環(huán)境做出實時的表征。應(yīng)用現(xiàn)在的深度學(xué)習(xí),可能是一個難以完成的任務(wù)。因為深度學(xué)習(xí)適用的領(lǐng)域,仍然局限于對大樣本圖像和語音數(shù)據(jù)的處理。一個動作可能會帶來哪些附帶的后果,這樣的數(shù)據(jù)因為高度語境依賴,而且難以以大數(shù)據(jù)的形態(tài)存在,因而就不可能用大數(shù)據(jù)來對機器人進行訓(xùn)練。最終,要生成一個具有人類常識信念的神經(jīng)網(wǎng)絡(luò)就是非常困難的,框架問題仍然難以解決。
此外,深度學(xué)習(xí)由于需要大量的訓(xùn)練樣本的植入,在訓(xùn)練過程中需要不斷地調(diào)整參數(shù),來獲得想要的輸出。比如,Alphago的監(jiān)督式學(xué)習(xí)訓(xùn)練出來的策略網(wǎng)絡(luò),就需要人類的棋局作為訓(xùn)練樣本,而且訓(xùn)練過程中也需要人工設(shè)定特征參數(shù)。在這樣的情況下,神經(jīng)網(wǎng)絡(luò)與世界之間的對應(yīng)關(guān)系,仍然是人為設(shè)定,而不是神經(jīng)網(wǎng)絡(luò)自主生成的。深度學(xué)習(xí)也不能完全解決符號奠基問題。
三、與其警惕人工智能,不如警惕哲學(xué)家
相比于其他工程學(xué)領(lǐng)域,AI可能是與哲學(xué)聯(lián)系最為緊密的一個學(xué)科。在人工智能哲學(xué)史上,很多哲學(xué)家都試圖用一些替代的思想資源,來改進人工智能的技術(shù)方案。而哲學(xué)也在這個過程中,扮演了牛虻的角色,通過不斷澄清人類智能和認(rèn)知的本質(zhì),來檢視AI的弱點和限度,最終激勵A(yù)I的研究。在所有哲學(xué)家中,被人工智能研究者所援引最多的作者,可能就是海德格爾和維特根斯坦。
早在AI的符號主義時代,美國的海德格爾專家德雷福斯就批判了當(dāng)時的AI。無論AI的算法多么復(fù)雜,都可以歸結(jié)為用符號邏輯或神經(jīng)網(wǎng)絡(luò)來表征世界,然后基于對這些表征的高效處理來規(guī)劃行動。然而,這并不完全符合人類的行為模式。在德雷福斯看來,人類的大量行為并不涉及表征,行動者直接與環(huán)境進行實時交互,并不需要在頭腦中表征出世界的變化之后再規(guī)劃行動。后來MIT的布魯克斯就采用了這種“無表征智能”的方案(雖然布魯克斯不承認(rèn)德雷福斯對他的影響,但據(jù)德雷福斯說,這個idea源于布魯克斯實驗室的某個學(xué)生選修了他的哲學(xué)課),設(shè)計過一個可以實時響應(yīng)環(huán)境的機器人“成吉思”。
除了海德格爾,維特根斯坦也是AI批判的另一個風(fēng)暴中心。維特根斯坦在1939年左右,在劍橋主講過一門數(shù)學(xué)基礎(chǔ)的課程,而我們開篇提到的人工智能先驅(qū)圖靈正好選修過這門課程。后來有一部科學(xué)小說《劍橋五重奏》便安排了兩人關(guān)于機器能否思維展開了一番唇槍舌劍,其中一部分素材就是取自于兩人在課上的爭論。在維特根斯坦看來,人類與機器雖然都是遵循一定的規(guī)則而行動的,然而,規(guī)則對于機器而言是構(gòu)成性的,因為它的運作就必須依賴于規(guī)則,但對于人類而言,遵守規(guī)則就意味著有意識地遵守它。但維特根斯坦對AI影響最大的是他晚期關(guān)于語言的學(xué)說。維特根斯坦早期認(rèn)為,語言就是由一系列可以通過符號邏輯來描述的命題構(gòu)成的集合,而世界也是由事實組成的,這樣,命題就是事實的邏輯圖象,我們就可以通過命題來刻畫世界。這個思想與AI的觀念是完全同構(gòu)的。然而,維特根斯坦晚期放棄了這些觀念,他認(rèn)為語言的意義不在于基本命題的組合,而在于它的用法,正是我們對語言的使用決定了它的意義。因此,像傳統(tǒng)AI那樣試圖建立符號與對象之間的固定聯(lián)系,是徒勞無功的,語言的意義只有在其使用中才能建立。基于這個觀念,一些AI專家比如斯蒂爾就用它來解決符號奠基問題。他設(shè)計了這樣一個機器人種群,其中一個機器人看到一個對象比如說箱子之后,隨機生成了一個符號串比如Ahu來代表它,然后,它將Ahu這個符號傳達給另一個機器人,讓它猜謎,看哪一個對象對應(yīng)著Ahu,如果這個機器人正確地指出了Ahu對應(yīng)的箱子,就傳達給它一個正確的反饋。于是,這兩個機器人獲得了一個代表Ahu的詞匯。斯蒂爾將這個過程稱之為自適應(yīng)語言游戲,通過不斷地進行這種游戲,這個機器人種群就可以獲得關(guān)于它們周圍世界的語言描述,從而將符號的意義自主地奠基于世界之中。
然而,這些進路在AI歷史上一直是十分邊緣的,因為它們所依賴的技術(shù)資源都太過簡單,要完整地模擬人類的身體和生活世界,其難度甚至要超過傳統(tǒng)AI用形式體系來表征世界。但如果海德格爾和維特根斯坦對于人類智能本質(zhì)的理解是正確的話,那么未來的AI仍然不可避免地需要一種具身的和分布的方案。比如,賦予AI一個身體,讓它可以從環(huán)境(而不是訓(xùn)練數(shù)據(jù))中直接獲取特征量,讓它在與環(huán)境和其他能動者的交互中學(xué)習(xí)指導(dǎo)人類行動的常識和語言。這可能是通往通用AI的唯一道路。
然而,這種具身的通用AI可能也是人類的取滅之道。因為只要AI有了自身的歷史、周圍世界和生活形式,它最終也可以擺脫人類的訓(xùn)練和反饋激勵,具有自己的欲望和目標(biāo)。一旦它有了自己的欲望,并基于這種欲望來規(guī)劃自己的行動,在它對環(huán)境的不斷適應(yīng)和調(diào)整中,將進入演化的軌道之中,成為一個新的物種。如果人類和它們產(chǎn)生生存上的沖突和競爭,由于人類在機能上的有限性,很可能會面臨被淘汰的命運。
因此,從哲學(xué)上看,我們擔(dān)心的并不是AI研究無視海德格爾和維特根斯坦這樣的人工智能(潛在)敵對者的論點,因為一個專用的弱AI才是好AI,我們更擔(dān)心的毋寧是AI研究者采信了它們的觀點,將現(xiàn)在的深度學(xué)習(xí)和強化學(xué)習(xí)與具身機器人學(xué)結(jié)合起來。
AlphaGo并不可怕,可怕的是它有了自己的身體、意識、欲望和情感。