關(guān)于人工智能它的本質(zhì)究竟是什么
掃描二維碼
隨時(shí)隨地手機(jī)看文章
(文章來源:百家號)
HackerNoon CEO大衛(wèi)斯穆克(David Smooke)將人工智能定義為科技領(lǐng)域,并預(yù)計(jì)其未來將會(huì)有巨大發(fā)展。他指出,發(fā)展人工智能似乎可以用來研究如何進(jìn)一步減輕一些基礎(chǔ)任務(wù)的負(fù)擔(dān),如會(huì)議的安排與協(xié)調(diào)等。那么,人工智能的現(xiàn)狀究竟如何呢?人工智能的性能取決于其訓(xùn)練集。最好的人工智能可能有最多的數(shù)據(jù)點(diǎn)來進(jìn)行對比和計(jì)算。斯基納(Skinner)和帕夫洛夫(Pavlov)的行為主義對人類學(xué)習(xí)的本質(zhì)做出了相似的假設(shè)。
也就是說,人類是基于數(shù)據(jù)集進(jìn)行訓(xùn)練的,而大腦內(nèi)部的運(yùn)作機(jī)制則略有不同。人可以簡單地給予獎(jiǎng)勵(lì)和懲罰作為輸出(或行為)的條件,并通過這種方式最終實(shí)現(xiàn)目標(biāo)行為。問題是,雖然心理學(xué)在很大程度上已經(jīng)對人類學(xué)習(xí)進(jìn)行了深刻研究,但機(jī)器學(xué)習(xí)卻沒有。這個(gè)問題可能在人機(jī)交互的模擬中越愈發(fā)凸顯,也經(jīng)常出現(xiàn)在人工智能工程師們在試圖模擬人類思想的過程中。
他既不會(huì)說也聽不懂中文。但是在這個(gè)房間里有一本很大的手冊,里面有一系列的假設(shè)陳述。通過門上的一個(gè)插槽,他可以接收漢字,查找手冊中的字符串,并找到要通過插槽送出的字符串。顯然,塞爾可能會(huì)讓房間外的人相信他真的懂中文,但事實(shí)上他并不懂,他只是在匹配符號。因此,他表現(xiàn)出的能力受限于中文手冊的內(nèi)容。
一些人工智能的創(chuàng)建者可能會(huì)聲稱,創(chuàng)建人工智能的意義實(shí)際上只是人類龐大的記憶內(nèi)存和快速匹配能力的虛幻副產(chǎn)品。這和行為主義者的說法是一樣的——大腦是一個(gè)黑匣子,學(xué)習(xí)可以自動(dòng)進(jìn)行,而不需要機(jī)器中的某些神秘力量。并不是認(rèn)為必須以神秘的方式探索思維,而是指出這種還原論對行為主義者存在誤導(dǎo),因此它很可能成為人工智能發(fā)展的一個(gè)絆腳石。
這是自然語言處理的難點(diǎn)之一。在自然語言處理中,詞的語境共同構(gòu)成彼此的含義。計(jì)算機(jī)并不自帶這種能力。因此,程序員必須手動(dòng)為機(jī)器編寫代碼,然后“自動(dòng)”學(xué)習(xí)這些關(guān)系。人類的理性是不同的。人類的理性不是二元的。因此,事物不是無語境的獨(dú)立的單位,而是超越自身,存在于與其他事物的關(guān)系網(wǎng)中。例如,“好”的意思也可以指“不壞”。
對于人類來說,這種對立性賦予了他們區(qū)分不同類型字符的先天能力,例如“好的壞”和“好的鞋”。然而對于計(jì)算機(jī)來說,這些對立關(guān)系必須進(jìn)行有目的地學(xué)習(xí)了才行,因此在概念上,“壞”與“好”間的聯(lián)系并不比“好”與“鞋”的聯(lián)系更緊密。乍一看,這似乎不那么重要,但想象一下,如果一個(gè)人認(rèn)為好與壞和好與鞋的意思相近?,那就說明他既不知道“好”是什么意思,也不知道“鞋”是什么意思。
機(jī)器本質(zhì)上并不理解“讓我說‘好’”和“讓我不說‘好’”之間有一種特殊的對立關(guān)系,而人類則不然。這種情況帶來很大影響,一些合作程度較差的參與者甚至公然采取藐視態(tài)度,因?yàn)樗麄兊膶α⑿允顾麄兊牡赖聶?quán)威比實(shí)驗(yàn)者的權(quán)威更大。不禁讓人想起了iRobot的桑尼,這個(gè)機(jī)器人比其他機(jī)器人“聰明”多了,因?yàn)樗袢祟愐粯幽軌蚶斫鈱α⑿浴?/p>
有證據(jù)表明人類的記憶與機(jī)器的記憶大不相同。除硬件故障外,機(jī)器會(huì)存儲(chǔ)無語境的信息。然而,人類的記憶取決于是否能夠?qū)⑵渲糜谟幸饬x的環(huán)境中。例如,克雷克(Craik)和托爾文(Tulving)發(fā)現(xiàn),當(dāng)人們被問到“____是一種魚嗎?”時(shí),他們更容易記住該填空是“鯊魚”,而不是“天堂”。
同樣,人們記住按相似度分類的事物比記住沒有這類分類的事物更容易。然而,對于計(jì)算機(jī)來說,事物是獨(dú)立的,不需要語境。機(jī)器制造記憶和檢索記憶與概念語境或現(xiàn)實(shí)語境無關(guān),但對人類來說并非如此。
如果聽到“西雅圖在地圖上與洛杉磯不相鄰”這一說法,聽者可能會(huì)思考這句話的真實(shí)性。說這個(gè)話的人可能會(huì)用一種奇怪的方式折疊地圖,讓西雅圖和洛杉磯緊挨著,然后沉浸在狡猾、驕傲的微笑中。意義創(chuàng)造是語境與對立性的結(jié)合;意義創(chuàng)造是人類理性的重要組成部分,機(jī)器則不具備這一點(diǎn),至少現(xiàn)在還沒有具備。
這并不是說人工智能注定要失敗,也不能忽視已經(jīng)取得的不可思議的飛躍。筆者不否認(rèn)機(jī)器學(xué)習(xí)能夠很好地模仿任何一項(xiàng)人類的任務(wù),任何有限自動(dòng)機(jī)都能做到這一點(diǎn)。
但要使人工智能令人信服,需要大量的極端案例、修改、再訓(xùn)練、大量計(jì)算。正如我們目前所知,人工智能不是很靈活,除非計(jì)算機(jī)從盲目地匹配對象轉(zhuǎn)向創(chuàng)造意義,否則它就不可能有靈活性。 由此可得出結(jié)論,在可預(yù)見的未來,人工智能最適合于概念靈活性很小、不受環(huán)境影響、不涉及對人類偏好的任務(wù)(例如,輔助耕作和駕駛飛機(jī)等任務(wù))。人工智能工程師應(yīng)該在其他任務(wù)中發(fā)展機(jī)器學(xué)習(xí),比如提出好的建議(推薦食物/電影/朋友)或者做出道德判斷(比如自動(dòng)駕駛汽車的安全協(xié)議)等。