人工智能是真的懂我們嗎
人工智能進步神速,獲得一定的理解力,可以回答簡單的問題。
理解是一個動態(tài)的能力增長區(qū)間。
為了讓系統(tǒng)產(chǎn)生理解力,需在不同的概念、狀態(tài)和操作之間建立系統(tǒng)聯(lián)系。
原文來自Medium,作者Thomas G. Dietterich
針對人工智能的最新進展,一些批評家認為,盡管人工智能進步神速,但仍然沒有達到“真實的”、“準確的”、“真正的”理解。這些詞語說明“理解”是二元的:一個系統(tǒng)要么有“真正的”理解力,否則就沒有。
這種看法的問題在于,人類的理解永遠是不完整、不完美的。我認為“理解”是一個動態(tài)的能力增長區(qū)間。以“水”為例。大多數(shù)人理解水的特性:濕的,可以喝,植物需要,受凍成冰等等。
但是,很多人不知道水也是一種電導體,所以不要在淋浴間里吹頭哦。然而,我們不會認為這些人對“水”缺乏“真實的”、“準確的”、“真正的”理解,相反,我們說他們的理解不完整。
因此,我們應該以同樣的態(tài)度評估人工智能系統(tǒng)。現(xiàn)有的系統(tǒng)產(chǎn)生了一定的理解力,例如:如果我告訴Siri:“Siri,打電話給卡洛爾?!彼鼤艽蛘_的號碼,Siri沒有理解我的請求嗎?那可是大錯特錯了。
如果我問Google:“誰被IBM的深藍系統(tǒng)打?。俊彼鼤@示一個信息框,大大的字母寫著“Kasparov”,它也正確理解了我的問題。當然,這種理解力是有限的。如果我再問:“時間?”,它會給出了字典中“時間”的定義,它無法結合上下文進行回答。
關于“理解”的爭論可以追溯到亞里士多德時期,或許塞爾(Searle)的中文屋論證(Chinese Room argument)闡釋更清晰。我推薦大家閱讀《斯坦福哲學百科全書》(Stanford Encyclopedia of Philosophy)中科爾(Cole)的文章。
我認為理解是功能主義的一種形式。我們從功能的角度描述理解的特征,并根據(jù)大腦或人工智能系統(tǒng)中各種內部結構作用,評估它們各自的貢獻。
從軟件工程的角度,功能主義鼓勵我們設計一系列測試測量系統(tǒng)功能。我們可以問系統(tǒng)(或人):“如果水的溫度降到零下20℃會發(fā)生什么?”或者“如果在淋浴間里使用吹風機會怎樣?”然后評價它們的反潰如果反饋相對合理,我們可以說系統(tǒng)能理解,而如果反饋是錯的,我們則判斷系統(tǒng)無法理解。
為了讓系統(tǒng)產(chǎn)生理解力,我們需在不同的概念、狀態(tài)和操作之間建立系統(tǒng)聯(lián)系。今天的語言翻譯系統(tǒng)正確地將英語中的“water”與西班牙語中的“agua”聯(lián)系起來,但它們在“水”和“觸電”之間沒有建立任何聯(lián)系。
對人工智能新進展的批評主要來自兩個方面。首先,圍繞人工智能的炒作(來自研究人員、其所屬組織、甚至是政府和資助機構)已經(jīng)無所不用其極。甚至引發(fā)了對“超級智能”和“機器人啟示錄”的恐懼。要反駁這種無稽之談,理性批評還是可取的。
對于人工智能未來研究方向和政府資金分配的爭論還在繼續(xù),批評是這一爭論的一部分。一方是聯(lián)結主義(connectionism)的倡導者,他們推動了深度學習,支持繼續(xù)研究人工智能。另一方是人工智能符號和控制方法的倡導者(比如形式邏輯)。也有越來越多的人主張在混合架構中結合這兩種方法。
批評同樣對這個方面的爭論有助益,因為人工智能一定會不斷沖破我們的假設,并選擇如何使用社會的資源和金錢推進人工智能科學和技術的發(fā)展。然而,我反對“深度學習系統(tǒng)沒有產(chǎn)生真正的理解,因此應該放棄深度學習”這一觀點。
這種觀點和“深度學習系統(tǒng)已經(jīng)取得了巨大進步,進一步研究我們對智能將一覽無余。我喜歡拉卡托斯(Lakatos)的觀點,研究項目會一直進行下去,直到它們不再有成果。
我認為我們應該繼續(xù)追求聯(lián)結主義、符號象征(symbolic representaTIonalist)以及新興的混合方案,因為它們在未來大有可為。
對深度學習的批評催生新的發(fā)展方向。特別是,深度學習系統(tǒng)在各種基準任務的表現(xiàn)堪比人類,卻無法總結表面上非常相似的任務,這使機器學習產(chǎn)生了危機。研究人員正在思索新的應對方案,例如不變量、研究因果模型,這些既適用于符號學習,也適用于聯(lián)結主義的方式。
我認為,我們應該追求人工智能科學技術的進步,而不是就“真正的”理解定義侃侃而談。相反,重點該放在未來5年、10年或50年可以實現(xiàn)的系統(tǒng)功能上。我們可以在人工智能系統(tǒng)上執(zhí)行測試來定義這些能力,從而測量系統(tǒng)是否擁有這些能力。
要做到這一點,這些能力必須具有可執(zhí)行性。簡而言之,人工智能的測試要以測試為導向。這要求我們把“理解”和“智能”的模糊概念轉化為具體的、可量的能力。這本身就是一個非常實用的過程。
操作測試中,除了評估人工智能系統(tǒng)的輸入輸出行為之外,還可以檢查產(chǎn)生這種行為的內部結構(數(shù)據(jù)結構、知識庫等)。人工智能相對于神經(jīng)科學的一大優(yōu)勢是,我們可以更容易在人工智能系統(tǒng)上進行實驗,理解和評估它們的行為。
不過,還是要提醒大家注意。聯(lián)結主義方法,包括深度學習,經(jīng)常導致難以解釋的內部結構,似乎我們的大腦也是如此。因此,我們不需要設定一個研究目標來確認某些結構(例如符號表征)的存在。相反,我們應該關注希望系統(tǒng)獲得的行為能力,并研究其內部機制如何實現(xiàn)這些能力。
例如,一次成功的對話需要每位參與者留心交流過程中的前因后果。有很多方法可以做到這一點,我們沒必要在一個深度學習系統(tǒng)中硬性要求明確的歷史記憶。
相反,我們編寫了一個特定的內部結構,并不意味著它就會按照我們預計的方式運行。德魯麥克德莫特(Drew McDermott)在其著作《人工智能遇到自然愚蠢》(Artificial Intelligence Meets Natural Stupidity)中詳細討論了這個問題。
人工智能受批評,發(fā)展,再受批評的模式導致所謂的“人工智能效應”:時下最先進的系統(tǒng)沒有產(chǎn)生“真正的理解”或“真正的智能”,人工智能等同于失敗。這導致人工智能領域的成功被忽視,投入資金減少。例如,曾經(jīng)有一段時間,人們認為系統(tǒng)如果能夠達到人類下象棋或圍棋的能力,就是智能的。
但是當1997年深藍擊敗卡斯帕羅夫時,一位著名的人工智能研究人員認為,下國際象棋擊敗人類很容易,要顯示出真正的智能,必須解決“小車倒車問題(truck backer-upper problem)”,即將一輛鉸接式半拖車卡車倒進停車位。
事實上,九年前,阮(Nguyen)和威德羅(Widrow)已經(jīng)通過強化學習解決了這個問題。今天,許多“深謀遠慮”的批評者再次提出了新任務和新條件,測試一個系統(tǒng)是否產(chǎn)生了“理解”。
與此同時,人工智能的研發(fā)提升系統(tǒng)能力,并為社會創(chuàng)造價值。重要的是,無論是從學術誠信角度考慮還是為了繼續(xù)獲得投資,人工智能研究人員要能在成功時坦然接受贊美,失敗時勇于承擔責任。
我們必須壓制圍繞人工智能新進展的炒作、必須客觀地衡量我們的系統(tǒng)在不同情況下是否能理解用戶和其目標,客觀地認識人工智能開拓的廣闊世界。我們沒有必要糾結于成果的“真真假假”,帶上誠實有效的自我批評,讓我們繼續(xù)前行吧。
? ?