微軟艾倫研究所CEO稱:人工智能不會(huì)對(duì)人類生存造成威脅
伊隆·馬斯克(Elon Musk)正計(jì)劃開發(fā)全自動(dòng)駕駛汽車。這樣的汽車需要強(qiáng)大的人工智能技術(shù),實(shí)時(shí)閱讀周圍復(fù)雜的駕駛環(huán)境,并作出反應(yīng)。人工智能正取得令人驚喜的成果。例如上周,AlphaGo的開發(fā)團(tuán)隊(duì)報(bào)告稱,他們的軟件已經(jīng)可以了解,如何像倫敦本地人一樣在錯(cuò)綜復(fù)雜的倫敦地鐵里找到路。甚至美國(guó)白宮也開始關(guān)注人工智能。幾天前,白宮發(fā)布了一份研究報(bào)告,推動(dòng)美國(guó)迎接人工智能的未來。
然而,計(jì)算機(jī)科學(xué)家、艾倫研究所CEO奧林·艾奇奧尼(Oren Etzioni)表示,在人們可以將世界交給計(jì)算機(jī),或是擔(dān)心計(jì)算機(jī)對(duì)人類的威脅之前,我們還有很長(zhǎng)的路要走。過去幾年,艾奇奧尼專注于研究并解決人工智能的基本問題,他目前擔(dān)任艾倫人工智能研究所CEO。
2014年,微軟聯(lián)合創(chuàng)始人保羅·艾倫(Paul Allen)與他人共同創(chuàng)立了這一研究所(AI2),專注于研究人工智能可能給人類帶來的幫助。該研究所并不認(rèn)為,人工智能會(huì)像好萊塢大片中所說的一樣,對(duì)人類的生存造成威脅。
微軟聯(lián)合創(chuàng)始人保羅·艾倫
艾倫研究所的項(xiàng)目或許并不那么有趣。這其中包括基于人工智能、用于學(xué)術(shù)研究的搜索引擎SemanTIc Scholar。不過,他們也會(huì)關(guān)注推理等人工智能的其他領(lǐng)域。用艾奇奧尼的話來說,這將使人工智能技術(shù)不再被局限于“狹窄的領(lǐng)域,只能做好某件事”。
在近期于紐約舉行的人工智能大會(huì)上,《科學(xué)美國(guó)人》對(duì)艾奇奧尼進(jìn)行了專訪。在采訪中,他對(duì)企業(yè)過度夸大人工智能,尤其是深度學(xué)習(xí)技術(shù)當(dāng)前能力的做法表示了擔(dān)憂。深度學(xué)習(xí)技術(shù)利用神經(jīng)網(wǎng)絡(luò),模擬人腦的神經(jīng)系統(tǒng)去處理大規(guī)模數(shù)據(jù)集,從而讓計(jì)算機(jī)自主學(xué)會(huì)某些特定的技能,例如識(shí)別模式,以及照片中的特定對(duì)象。
艾奇奧尼還談到,為何10歲兒童也要比DeepMind的AlphaGo更智能,以及人類為何需要開發(fā)人工智能“衛(wèi)士”程序,確保其他人工智能系統(tǒng)不會(huì)對(duì)人類構(gòu)成危險(xiǎn)。
艾倫研究所CEO奧林·艾奇奧尼
以下是專訪主要內(nèi)容:
問:關(guān)于開發(fā)人工智能技術(shù)的最佳方式,研究人員之間是否存在分歧?
艾奇奧尼:我們?cè)谡Z音識(shí)別、無人駕駛汽車等領(lǐng)域取得了真正的發(fā)展,當(dāng)然還有AlphaGo。這些都是真正的技術(shù)成就。然而,我們要如何進(jìn)行表述?深度學(xué)習(xí)很明顯是極具價(jià)值的技術(shù),但我們?cè)陂_發(fā)人工智能的過程中還有許多其他問題要解決,例如推理(這意味著機(jī)器可以理解2+2=4,而不僅僅是根據(jù)規(guī)則去計(jì)算),以及掌握背景知識(shí)去建立上下文環(huán)境。自然語言理解是另一個(gè)案例。即使我們已有AlphaGo,我們還無法開發(fā)出一種軟件,閱讀并充分理解某個(gè)文章段落,或是簡(jiǎn)單的句子。
問:有觀點(diǎn)認(rèn)為,關(guān)于人工智能,深度學(xué)習(xí)是“我們掌握的最佳手段”。這是否是對(duì)深度學(xué)習(xí)技術(shù)的不看好?
艾奇奧尼:如果你掌握了大量已被標(biāo)記的數(shù)據(jù),讓計(jì)算機(jī)知道這些意味著什么,而如果你又掌握了大量計(jì)算資源,并試圖從這些數(shù)據(jù)中找尋模式,那么我們已經(jīng)看到,深度學(xué)習(xí)是不可擊敗的。就AlphaGo而言,這一系統(tǒng)處理過3000萬種棋型,從而令人工智能知道在不同情況下什么樣的下法是最優(yōu)的。其他一些情況也很類似,例如醫(yī)院的放射影像。如果我們可以把許多影像圖片標(biāo)記為存在腫瘤或不存在腫瘤,那么深度學(xué)習(xí)軟件就可以自行判斷,未知圖片上是否存在腫瘤。利用深度學(xué)習(xí),可以做的有很多。這是一種領(lǐng)先的技術(shù)。
問:那么問題是什么?
艾奇奧尼:?jiǎn)栴}在于,智能有很多種,不僅僅是你用大數(shù)據(jù)去訓(xùn)練一個(gè)程序??梢韵胂髽?biāo)準(zhǔn)化考試,例如SAT考試或大學(xué)入學(xué)考試。軟件不可能去觀察此前的3000萬次被標(biāo)記為“成功”或“不成功”的考試,從而拿下最高分。這是個(gè)更復(fù)雜,需要互動(dòng)學(xué)習(xí)的過程。智能性也包括通過建議、對(duì)話內(nèi)容,以及書本的學(xué)習(xí)能力。盡管深度學(xué)習(xí)取得了極大的進(jìn)展,但我們?nèi)晕茨荛_發(fā)出一種軟件,讓其實(shí)現(xiàn)10歲兒童可以做到的事,即拿起一本書,閱讀其中某個(gè)章節(jié),隨后回答關(guān)于這部分內(nèi)容的問題。
問:那么,人工智能要如何才能通過標(biāo)準(zhǔn)化考試?
艾奇奧尼:在艾倫研究所,我們已開展了這方面的研究項(xiàng)目。去年,我們宣布了一筆5萬美元的獎(jiǎng)金。任何人如果能開發(fā)出人工智能軟件,使其通過8年級(jí)的標(biāo)準(zhǔn)科學(xué)考試,那么將可以贏得這筆獎(jiǎng)金。來自全球的超過780個(gè)團(tuán)隊(duì)參加了這一項(xiàng)目,嘗試了幾個(gè)月時(shí)間,但沒有任何團(tuán)隊(duì)開發(fā)的人工智能系統(tǒng)能達(dá)到60分,即使這只是8年級(jí)考試中的多選題。這表明了我們的現(xiàn)狀。
問:頂級(jí)人工智能系統(tǒng)正確回答問題的能力如何?
艾奇奧尼:通常情況下,語言中會(huì)包含線索。最前大的系統(tǒng)會(huì)利用來自科學(xué)教材和其他公開來源的信息,并通過強(qiáng)大的信息檢索技術(shù)去進(jìn)行搜索,為每道多選題尋找最佳答案。例如,以下的最佳導(dǎo)電材料是什么?選項(xiàng)包括,塑料湯匙、木頭叉子,以及鐵棒。程序非常善于用公式。它們可以發(fā)現(xiàn)在許多文件里,電力或?qū)щ娡c鐵關(guān)聯(lián)在一起,而不會(huì)與塑料關(guān)聯(lián)在一起。因此在某些情況下,程序能走捷徑,發(fā)現(xiàn)答案。這與孩子們有根據(jù)的猜測(cè)類似。由于沒有任何系統(tǒng)達(dá)到60分,我可以認(rèn)為,這些程序只是使用統(tǒng)計(jì)學(xué)方法進(jìn)行有根據(jù)的猜測(cè),而不是用推理方式去思考問題。
問:開發(fā)AlphaGo的DeepMind團(tuán)隊(duì)目前開發(fā)了人工智能程序,利用外部記憶系統(tǒng)突破了深度學(xué)習(xí)。在開發(fā)更接近人腦的人工智能方面,他們的工作將帶來什么樣的影響?
艾奇奧尼:在推動(dòng)深度神經(jīng)網(wǎng)絡(luò)發(fā)展的過程中,DeepMind仍是領(lǐng)先者。在人工智能推理能力發(fā)展的過程中,這一貢獻(xiàn)是重要的一步,但也是很小的一步,即通過圖譜結(jié)構(gòu)將事實(shí)聯(lián)系在一起,例如對(duì)地鐵系統(tǒng)的繪圖。當(dāng)前最強(qiáng)大的軟件可以輕松完成同樣的任務(wù),但這里的成就在于,神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)如何根據(jù)案例完成任務(wù)。這配得上一篇《自然》論文。整體來看,這是DeepMind的一大步,但卻是人類的一小步。
問:那么是否有可能將不同技術(shù),例如深度學(xué)習(xí)、機(jī)器視覺和記憶結(jié)合在一起,開發(fā)出更完整的人工智能系統(tǒng)?
艾奇奧尼:這是個(gè)極具吸引力的概念。當(dāng)我還在華盛頓大學(xué)擔(dān)任教授時(shí),我在這方面有許多研究,而基本概念在于,利用互聯(lián)網(wǎng)作為人工智能系統(tǒng)的數(shù)據(jù)庫(kù)。我們開發(fā)了一項(xiàng)被稱作開放信息提取的技術(shù),編目了50億個(gè)網(wǎng)頁,從中提取語句,試圖將其變?yōu)榭梢灾笇?dǎo)機(jī)器操作的知識(shí)。機(jī)器具備超自然的能力,掃描網(wǎng)頁,獲得所有語句。問題在于,語句位于文本或圖片中。作為人類,我們的大腦具備標(biāo)記能力,將操作與推理匹配在一起,而計(jì)算機(jī)科學(xué)家尚未發(fā)現(xiàn)其中的奧秘。這種通用數(shù)據(jù)庫(kù)及人工智能界面只存在于科幻小說中,因?yàn)槲覀兩形创_定,如何將文字和圖像轉(zhuǎn)化成機(jī)器可理解的形式,就像人類的理解一樣。
問:你曾經(jīng)提到,人腦水平的人工智能至少還要25年的發(fā)展。你對(duì)人腦水平人工智能的定義是什么,為什么提出這樣的時(shí)間點(diǎn)?
艾奇奧尼:對(duì)自然語言的真正理解,人類智能的廣度和普適性,我們既可以學(xué)會(huì)下圍棋也知道如何過馬路,以及清楚如何做出美食,這樣的多樣性正是人類智能的特點(diǎn)。我們目前所做的只是開發(fā)范圍很窄的人工智能,只能在某一方面做得很好。關(guān)于如何得出這樣的時(shí)間點(diǎn),我曾詢問過“人工智能發(fā)展協(xié)會(huì)”的同事,我們何時(shí)能開發(fā)出像人類一樣聰明的計(jì)算機(jī)系統(tǒng)。沒有人認(rèn)為,這樣的系統(tǒng)能在10年內(nèi)開發(fā)出來;有67%的人認(rèn)為,時(shí)間會(huì)是未來25年或更長(zhǎng);而25%的人認(rèn)為這樣的系統(tǒng)永遠(yuǎn)不可能實(shí)現(xiàn)。他們是否有可能搞錯(cuò)?是的。不過你應(yīng)該去相信哪些人?是行業(yè)發(fā)展的參與者,還是好萊塢?
問:為什么有許多備受尊重的科學(xué)家和工程師警告稱,人工智能將威脅人類?
艾奇奧尼:我很難理解,史蒂芬·霍金(Stephen Hawking)和伊隆·馬斯克(Elon Musk)等人討論普適性人工智能的動(dòng)機(jī)。我的猜測(cè)是,討論黑洞可能已經(jīng)顯得很枯燥,這是個(gè)進(jìn)展緩慢的問題。我可以說的是,當(dāng)他們和比爾·蓋茨(Bill Gates)等人討論人工智能的威脅,或是災(zāi)難性后果時(shí),他們總是會(huì)加入修飾語,即這“最終”會(huì)發(fā)生,或“能夠”發(fā)生。我對(duì)此表示同意。但我們討論的或許是數(shù)千年之后的未來,甚至永遠(yuǎn)不會(huì)到來的未來。人工智能是否有可能給人類帶來末日?完全有這樣的可能。但我并不認(rèn)為,這種著眼長(zhǎng)期的討論應(yīng)當(dāng)影響我們對(duì)實(shí)際問題的關(guān)注,例如人工智能和就業(yè),以及人工智能和武器系統(tǒng)。而“最終”和“理論上”這類修飾語在意思的傳達(dá)中常常會(huì)丟失。
問:考慮到人工智能的缺陷,人們是否應(yīng)當(dāng)擔(dān)心汽車廠商發(fā)展無人駕駛的努力?
艾奇奧尼:我并不熱衷于沒有方向盤和剎車踏板的無人駕駛汽車。在熟悉關(guān)于計(jì)算機(jī)視覺和人工智能的情況之后,我對(duì)此并不感冒。然而,我支持融合的系統(tǒng),例如這樣的系統(tǒng)在你打瞌睡時(shí)可以幫你自動(dòng)剎車。人工司機(jī)和自動(dòng)化系統(tǒng)的結(jié)合將會(huì)比單獨(dú)某一方更安全。這并不簡(jiǎn)單。引入新科技,將其集成至人們工作和生活的方式并不容易。但我不能斷言,最佳解決方案就是讓汽車自行去做一切的操作。
問:谷歌(微博)、Facebook和其他知名科技公司啟動(dòng)了“人工智能造福人類和社會(huì)合作伙伴”項(xiàng)目,探索人工智能研究過程中的道德倫理和社會(huì)學(xué)最佳行為。技術(shù)的進(jìn)步是否足以帶來有意義的對(duì)話?
艾奇奧尼:全球領(lǐng)先的科技公司走到了一起,思考這類問題,這是很好的想法。我認(rèn)為,他們這樣做是為了回應(yīng)外界的關(guān)切,即人工智能是否會(huì)接管世界。許多擔(dān)憂都是過分夸大的。即使我們有了無人駕駛汽車,也不會(huì)出現(xiàn)100輛無人駕駛汽車聚集在一起,說“讓我們?nèi)フ碱I(lǐng)白宮”。馬斯克等人討論的威脅還要幾十年到幾個(gè)世紀(jì)才可能出現(xiàn)。然而,我們正面臨一些現(xiàn)實(shí)問題:自動(dòng)化、數(shù)字技術(shù)和人工智能整體將影響就業(yè)情況,無論這是因?yàn)闄C(jī)器人還是其他什么,而這是真正的問題。無人駕駛汽車和卡車將極大的改善安全性,但它們也將影響到很多以開車謀生的勞動(dòng)者。另一個(gè)問題在于人工智能的歧視性。如果人工智能技術(shù)去處理貸款或信用卡申請(qǐng),它們是會(huì)以完全合法的方式去做,還是會(huì)以符合道德標(biāo)準(zhǔn)的方式去做?
問:你要如何保證,人工智能程序的行為符合法律和道德?
艾奇奧尼:如果你是一家銀行,利用軟件程序去處理貸款,那么你無法躲在它背后。簡(jiǎn)單地說,這個(gè)決定是計(jì)算機(jī)做出的,這并不是接口。即使不使用種族或性別作為變量,計(jì)算機(jī)程序也可能會(huì)出現(xiàn)歧視行為。由于程序可以接觸到許多變量和統(tǒng)計(jì)數(shù)據(jù),它們可能會(huì)發(fā)現(xiàn),在郵政編碼和其他變量之間存在相關(guān)性,進(jìn)而以這樣的變量去替代種族或性別。如果程序使用這些替代變量來影響決策,那么就會(huì)是個(gè)問題,而人工很難去探測(cè)或追蹤。因此我們的建議是開發(fā)人工智能“衛(wèi)士”。這樣的人工智能系統(tǒng)可以監(jiān)控并分析以人工智能為基礎(chǔ)的貸款處理程序的行為,確保其符合法律,在發(fā)展中合乎道德倫理。
問:目前人工智能衛(wèi)士是否存在?
艾奇奧尼:我們已經(jīng)向研究者社區(qū)發(fā)出呼吁,推動(dòng)這類技術(shù)的研究和開發(fā)。我認(rèn)為,目前可能已有少量的研究,但現(xiàn)階段這還只是我們的目標(biāo)。我們希望,關(guān)于人工智能衛(wèi)士的概念能澄清好萊塢渲染的人工智能的形象,例如“終結(jié)者”,即技術(shù)是惡魔,是冷冰冰的力量。