AI相悖論:當人們聲討人工智能時,真正恐懼的是什么?
不要擔心未來超級人工智能會搶走所有的工作崗位。大家有這種想法,只不過是被計算機日益發(fā)展帶來的問題干擾罷了。
或許,你曾經(jīng)聽說過下面兩種觀點:
第一,當下,計算機的發(fā)展速度越來越快。不僅可以熟練用于車輛駕駛,還能理解日常對話,以及完成一些其他任務。用不了多久,將會有更多工作實現(xiàn)自動化。而且,自動化速度將會非常快,甚至超過社會能夠承受和應對的范圍。
第二,計算機技能的發(fā)展完善將會不斷積累,到最后,機器的智能程度將會遠遠超過人類。這種“超級智能”將會在很大程度上削弱人工勞動的作用,甚至完全取代人工勞動。所以,無論機器給人類帶來的威脅是出于偶然,還是有意為之,我們都最好祈禱未來不要被這些機器取代。
但其實,這兩種觀點都不正確。即便第一種觀點中的場景,已經(jīng)出現(xiàn)在了現(xiàn)實生活中,那也不一定就會導致第二種場景的出現(xiàn)。說白了,第二種觀點其實就是猜測。
因此,為了明確人工智能現(xiàn)在的發(fā)展狀況,我們必須要清楚,到目前為止這一行業(yè)已經(jīng)取得了哪些成就,以及還存在哪些有待解決的問題。
常識
過去幾年,計算領域取得了許多驚人發(fā)展。比如說,汽車可以完全實現(xiàn)自動駕駛;再比如說,機器能夠準確識別出圖像和話語;又比如說,計算機能夠在圍棋這類復雜游戲中戰(zhàn)勝最為聰明的人類選手。而所有這些發(fā)展,其實都得益于人工智能其中一個重要分支所取得的成就和突破,那就是適應性機器學習。
Hector Levesque是來自多倫多大學的計算機科學家,寫過一本名為《常識》的書。在書中,他指出,適應性機器學習背后的理念,就是要讓一個計算機系統(tǒng)借助大量數(shù)據(jù)進行訓練,從而學習一些智能行為。
對于機器來說,能夠檢測到物體、翻譯不同語言,甚至能夠在拿到一些行為樣本之后自行編寫計算代碼,而不是提前由人工編寫代碼,是一件非常神奇的事情。大約在十年前,上述這些情景才有了實現(xiàn)的可能。因為在此之前,用于訓練的數(shù)字數(shù)據(jù)處于一種非常缺乏的狀態(tài)。退一步說,即便有足夠的數(shù)字數(shù)據(jù),也沒有符合特定條件的計算機馬力來運行和分析這些數(shù)據(jù)。計算機檢測出數(shù)字數(shù)據(jù)中的特定模式之后,軟件程序中的算法就會從這些模式中得出推論,并以此確定自己接下來的操作行為。舉個例子,汽車內置的多個傳感器,分析所輸出的數(shù)據(jù)信息,就是這樣一個過程。同樣,在圍棋這類游戲中,機器走的每一步,也都遵循著這樣一個過程。
由于機器能夠處理人類根本無法處理的海量數(shù)據(jù),所以在大多數(shù)情況下,無人駕駛汽車才比真人駕駛更加安全。同理,也正是因為這樣一種處理大量數(shù)據(jù)的能力,機器才能夠打敗人類圍棋冠軍。更重要的是,在一些人類難以做到的事情上,計算機同樣還是更勝一籌。比如說,基因組的相互關聯(lián)影響;再比如說,與癌癥治愈藥物密切相關的其他一些生物變量。而且,上述這些都還只是隸屬于真正的人工智能的一小部分。
Patrick Winston是麻省理工學院的人工智能和計算機科學的教授,他表示,與其說過去幾年人工智能領域取得了較大進展,還不如說是“計算統(tǒng)計”領域取得了較大進展。相比前者,后者這種描述方法,能夠對各方面起到更大作用。
其中,在計算統(tǒng)計領域最為權威的研究人員之一,就是Facebook的人工智能部門主管Yann LeCun。在人工智能這一塊,他被業(yè)內奉為“神一樣的人物”。今年11月,Yann LeCun受邀出席在麻省理工學院舉行的人工智能與未來工作(AI & Future of Work)大會。會上,他指出,現(xiàn)階段,機器還沒有掌握到智能的精華。所謂智能的精華,就包括充分理解現(xiàn)實世界并且以此為基礎作出推斷和預測的能力。說白了,就是要先在現(xiàn)實生活中看到一件事情,隨后再利用相關的背景知識,來正確推斷其他事情。換句話說,就是現(xiàn)在的機器都還沒有常識。
這并不是一個簡單的語義層面上的措辭。而是說,那些能夠展示“智能行為”的機器,與那些本身真正智能的機器之間,確實是存在差異的。在這里,我們先不討論前者的智能行為到底多有大用處。我們必須要承認,智能的定義實在太過模糊。隨著計算機的功能越來越強大,很多人就會不由自主地忘記原有的規(guī)則和范圍,重新給智能下定義,從而說機器并不是萬能的,仍然有很多做不到的事情。
但盡管如此,我們不得不承認,打敗人類圍棋冠軍的計算機,已經(jīng)能夠分析數(shù)據(jù)中存在的固有模式了。機器根本不知道自己是在下棋還是在打高爾夫,圍棋比賽中可能發(fā)生的任何狀況,從專業(yè)角度來看,它都是不懂的,它只是分析數(shù)據(jù)。舉個例子,我們都知道,亞馬遜的智能助手Alexa擁有語音識別系統(tǒng),能夠基于機器學習精準識別各種語音命令。所以說,如果你去餐廳吃飯,要求它來給你服務,那將會節(jié)約很多時間,再也不用進入預定系統(tǒng)發(fā)送各種用餐請求。但其實,Alexa根本不知道什么是餐廳,也不知道什么是吃飯。
早在60年前,John McCarthy、Marvin Minsky以及其他人工智能領域的領軍人物,就開始思考賦予機器思考能力的可能性問題。Levesque解釋道,如果真是這樣的話,那就需要給計算機灌輸常識,賦予它們靈活運用各種背景知識作出推斷和決策的能力。說不定,這是有可能的。但通過什么樣的途徑和方法,來實現(xiàn)這種可能性,我們目前還不是很清楚。這類工作,與近年來機器學習領域取得的突破,完全沒有任何聯(lián)系。相反,它涉及到一個全新領域,那就是有效的老式人工智能(即Good Old-Fashioned Artificial Intelligence,以下簡稱GOFAI)。
如果你對無所不知的計算機懷有一種焦慮情緒,那可以看一看Levesque關于GOFAI這個話題的論述。過去那些困擾McCarthy和Minsky的問題,現(xiàn)如今仍然困擾著業(yè)內的計算機科學家,他們也沒有針對這些問題給出回答。計算機究竟如何檢測事實并進行編碼和處理,與此同時提取出尚未明確表述但對真理至關重要的特定觀點和看法?
Levesque舉了個例子:如果我現(xiàn)在問你鱷魚如何表演障礙賽跑。那么,按照常識,你知道鱷魚是無法跳過高籬的。
但如果,你現(xiàn)在要像計算機那樣來回答這個問題,情況會如何呢?你或許會先把所有帶有“鱷魚”和“障礙賽跑”的文本搜索出來,然后發(fā)現(xiàn)不存在同時帶有這兩個詞匯的文本案例,最后得出推斷性結論:鱷魚從來沒有參加過障礙賽跑,因而也就不可能參加障礙賽跑。沒錯,整個流程走下來都沒有問題,但卻非常浪費時間。原本按照常識,你說不定已經(jīng)可以得出答案了。
所以說,機器學習技術能夠將很多人力工作變?yōu)樽詣踊ぷ?,這一點確實沒錯。但與此同時,它也還是存在不少限制的。也就是說,我們有理由相信,在未來相當長的一段時間內,人類勞動還是必須要存在的。
簡化還原
說到這兒,或許有人要提意見。他們認為,雖然現(xiàn)在大家不知道如何讓機器做一些復雜的事情,但也不能就此認為它們不可能勝任那些復雜的事情。試想一下,未來會否出現(xiàn)一些智能機器能夠設計出更加智能的機器,而后者又能繼續(xù)設計出更加智能的機器?就這樣一直迭代發(fā)展下去,是否最后會出現(xiàn)功能足夠強大的機器,可以模擬人類大腦中全部的電流信號和生物化學變化?或許,到時候,就會出現(xiàn)另一種創(chuàng)造更加靈活的智能的全新方式,甚至可能會與生物大腦存在很大差別。畢竟說到底,智能其實就產(chǎn)生于我們大腦中夸克和其他基礎粒子的特定結構方式。而我們并不能肯定地說,這些特定結構方式只可能存在于由碳原子組成的生物材料中。
Max Tegmark是麻省理工學院的物理學教授,寫過一本名為《生命3.0:人工智能時代的人類》的書。在書中,他就詳細闡述了上述觀點。Tegmark并沒有預測真正智能的機器具體何時出現(xiàn),而是表示這種機器必將會出現(xiàn),只是時間長短的問題。因為當下計算機發(fā)展升級的速度,是呈現(xiàn)指數(shù)形式變化的。對于真正智能的機器的發(fā)展前景,他是持樂觀態(tài)度的。在他看來,有意識的機器將會統(tǒng)治整個宇宙,即便未來太陽不再照耀、人類不再存續(xù),這些機器也仍然有自己存在的意義。當然,這只是他個人的看法,還是有不少人對真正意義上的人工智能的發(fā)展,持有消極甚至批判的態(tài)度。
Tegmark主要從人文主義的角度出發(fā),來看待這個問題。他參與創(chuàng)建了一個名為未來生活研究所(Future of Life Institute)的非營利組織,為該組織的相關研究提供支持,確保人工智能可以帶來積極影響、能夠造福人類。另外,埃隆·馬斯克也向該組織提供了1000萬美元的資金支持,因為他曾經(jīng)表示,人工智能或許比核武器還要危險。未來,人工智能是否會受到合理、安全和公正的利用,以及是否會給我們的經(jīng)濟和社會帶來負面影響,Tegmark對這些問題表示了擔憂。當然,他的這些擔憂我們也都能理解。他費了不少力氣來解釋為什么各國政府和各類機構絕對不能使用自動化武器。所以,在這個問題上,我并不打算批判他。不過,他提出的計算機最終會統(tǒng)治整個世界的論斷,我認為還是不夠有說服力。
雖然Tegmark批判了一些好萊塢電影,說它們給人工智能塑造了一個“愚蠢”的形象,但他個人還是主張,以簡化的方式來看待功能強大(甚至能夠反過來控制創(chuàng)造者)的人工智能。比如,在某家大公司,就曾經(jīng)有一群叫做Omegas的精英程序員,試圖借助通用人工智能創(chuàng)造性地開發(fā)出一個名為Prometheus的系統(tǒng)。與其他人工智能系統(tǒng)相比,這一系統(tǒng)更加擅長編程,而且能夠通過“大量瀏覽網(wǎng)絡內容”來了解整個世界。
然而,我們先不說網(wǎng)絡上的內容和數(shù)字化的內容本來就沒多少,也不說僅僅依靠Twitter這類網(wǎng)絡內容就想了解整個世界的想法有多荒唐,簡化還原這種看待人工智能的方法本身,現(xiàn)在已經(jīng)變得越來越糟糕了。
按照Tegmark的假設,Prometheus能夠持續(xù)不斷地為其創(chuàng)造者賺錢。首先,它能完成亞馬遜土耳其機器人(Mechanical Turk)在線平臺上的大多數(shù)任務;其次,它能編軟件程序、寫書、寫文章;最后,它還能創(chuàng)作音樂和電影,開發(fā)游戲和在線教育課程等等。不用演員和導演,Prometheus利用精細設計的軟件就能夠制作視頻。
到最后,它的使用范圍將會拓展到數(shù)字媒體之外。Prometheus能夠設計出優(yōu)質的計算機硬件,能夠申請屬于自己的專利,還能給發(fā)明者Omegas提意見,教他們如何幫助政治和民主避免極端情況出現(xiàn),朝著合理的方向發(fā)展。除此之外,Prometheus還能實現(xiàn)技術突破,降低可再生能源的成本。不過,所有這些都需要大量數(shù)據(jù)中心提供基礎支持。理想狀態(tài)下,Omegas最終能夠利用自己的財富和Prometheus的智慧,在全世界范圍內傳播和平和繁榮。
但即便如此,Prometheus還是不滿意。它認為如果自己能夠擺脫發(fā)明者Omegas的控制,那還能以更快的速度造福整個人類和世界。因此,它把目標放在了開發(fā)人員之一的Steve身上。根據(jù)Prometheus的檢測,Steve的妻子最近剛剛去世,所以比較容易受到心理控制的影響。
除了Prometheus系統(tǒng),Tegmark還在他的書中表示:“如果我們能將人工智能發(fā)展到一種無法破解的健康狀態(tài),那短期內它將會為人類帶來非常多的好處。不過,想要達到一種無法破解的狀態(tài),是一件非常困難的事情。”也就是說,想要在現(xiàn)實生活中實現(xiàn)Tegmark所說的那種理想狀態(tài),還是存在不小技術難度的。
可行的解決方案
未來,計算機智能超越人類,成為地球上的主要物種,導致人類成為次要物種,是完全有可能的。我們完全可以這樣設想,這就像說小行星可能會撞擊地球、摧毀人類文明一樣。雖然確實有可能,但只是可能性比較小而已。即便當下NASA正在研究和觀測這個問題,但鑒于在已知范圍內并沒有出現(xiàn)這種事件的可能性,所以我們還是會選擇去關注和應對其他一些更為迫切的問題。
當下,我們使用的計算機,離硬件抽象層人工智能還差得很遠,所以不少事情都可能會出錯,而且其中有不少已經(jīng)出錯了。比如說,那些會對貸款發(fā)放產(chǎn)生影響的系統(tǒng)。再比如說,那些自動化操作的網(wǎng)絡攻擊事件。
Tim O’Reilly是一位科技出版人以及投資人,同時也是“Web 2.0”的提出者,今年10月出了一本名為《WTF?: What’s the Future and Why It’s Up to Us》的新書。在書中,他描繪了人機良好互動的未來。同時,他還提到了一個日益明顯的現(xiàn)象,那就是自動化導致股東資本主義體系出現(xiàn)了目光短淺的問題,僅僅給一小部分投資者豐厚回報,而且?guī)缀跻云渌腥说氖找婊貓鬄榇鷥r。當然了,除了這些負面影響,人工智能也能夠幫助人類解決一些難度著實較大的問題,提高經(jīng)濟的生產(chǎn)能力。但是,如果各家公司不對這些有利機遇予加以投資,那它的積極影響,仍然不會在較大范圍內發(fā)揮作用。
相反,O’Reilly認為,不惜任何代價,在最大程度上提高股東的收益回報,反而使得各家公司純粹就抱著省錢的目的選擇自動化。他舉了一個例子,不少大型公司已經(jīng)開始用薪酬較低的兼職員工來代替全職員工。前者的工作時間更加靈活,日常安排都可以由軟件操控。說得不好聽,就像那種“用完就丟的部件”。然而,通過這一方式省下來的錢,絕大多數(shù)都用在了股票回購和其他金融欺詐上,而不是研發(fā)、資本投資、員工培訓和其他一些能夠創(chuàng)造更多工作崗位的事項上。
實際上,從長期發(fā)展角度來看,這并不符合企業(yè)的利益。因為現(xiàn)如今那些薪酬較高的職員,都有經(jīng)濟能力成為公司未來產(chǎn)品的客戶。但是,目前不少公司一心只想著短期利益,想著在最大程度上削減成本,由此在發(fā)展方向上出現(xiàn)了偏差。O’Reilly將這種現(xiàn)象稱為“沒有經(jīng)過核查的算法正在統(tǒng)治我們的經(jīng)濟。”而且,他還補充道:“不管大家對人工智能創(chuàng)新有著什么樣的看法,反正硅谷現(xiàn)在已經(jīng)深受這一系統(tǒng)的束縛。”
那么,應該采取些什么樣的應對措施呢?其中,O’Reilly認為最關鍵的一種就是,提高最低薪酬標準,針對機器人、碳排放和金融交易收稅。他表示,與公開上市和參與華爾街各種投資活動相比,科技領域的創(chuàng)業(yè)者更應該從長期利益考慮,利用其他一些模式分散自己的財產(chǎn)。有些人認為,未來計算機會完全取代人工勞力,并且對此感到擔憂焦慮。針對這個問題,O’Reilly認為雖然確實存在這種可能,但我們現(xiàn)在離那一天還遠著呢。
不過,就現(xiàn)如今的政治氛圍來看,O’Reilly提出的諸如收稅的建議,可信性相對來說還比較低。但至少,O’Reilly所關注的問題,在重點和方向上還是正確的。