在電影《異形:契約》中,邁克爾·法斯賓德所扮演的仿生人大衛(wèi)表面上對人類親切友好,但實際上卻通過一系列行為為人類帶來災禍。而在現(xiàn)實中,如霍金、馬斯克、比爾。蓋茨等名人都曾警告過人們要警惕人工智能可能帶來的危害。對于“人工智能滅世論”的支持者而言,當人工智能發(fā)展到一定階段后,它可能將人類看作潛在的、可被消滅的對象。正如一位著名的AI風險倡導者所說,“人工智能并不恨你,也并不愛你,但你是由原子構成的,它可以將其用于其他用途”(Yudkowsky,2008)。在這篇文章中,我將先介紹人工智能滅世論的基本論證,然后提出兩個質疑。需要說明的是,這樣的質疑并非為了證明人工智能滅世論是全盤錯誤的,而是為了讓該理論變得更為完整且合理,以帶給人們更嚴肅的思考。
人工智能滅世論
對于人們而言,人工智能將會在智力層面上超越人類已經(jīng)不是秘密。人們?yōu)槿斯ぶ悄芙鉀Q某些復雜能力而嘖嘖稱奇,但是人類仍然對人工智能在認知領域的進展既好奇又警惕。這樣的態(tài)度背后,是人類對于智力與良知之間不一致關系的認識,一個在智力上超越人類的存在未必是善良的。正如Nick Bostrom 在他的著作《超級智能》中所說的,如果超級智能是仁慈的,那很好,但是沒有理由讓人們認定人工智能必定是善良的。我們完全可以想象,當人工智能認為有必要銷毀人類賴以生存的資源時,人工智能會“毫不留情”地執(zhí)行這一想法。Nick Bostrom表示,人工智能有能力決定日后的地球上的生命起源,當他們認為非人類式的生命將對地球最為有益時,可以預見人工智能將推動人類的滅絕。
對此,有些學者質疑到是否可以設計某些“仁慈性測試”來檢驗人工智能的危害性。在人工智能通過測試之前,人們可以將人工智能放置在一個可控的、安全的環(huán)境(“盒子”)中,并反復測試其安全性?!昂凶印北旧硇枰M可能的還原現(xiàn)實環(huán)境,以保障人工智能的仁慈性與安全性得到的測試足夠真實。在人工智能通過測試后,并且對人類生命沒有任何風險時,我們可以將其從“盒子”中釋放出來。
但是,測試提議收到了許多批評和質疑,Bostrom表示,我們可以懷疑人工智能是否會為了逃離“盒子”而說謊通過測試。正如同人類可以為了達成自己的目的而使用例如說謊等不光彩的手段一樣,人工智能也有能力通過假裝對人類友善來實施其滅絕人類的計劃。甚至,在通過測試后的很長一段時間內(nèi),人工智能都可以與人類和諧共處,以贏得人類的信賴。另一種可能是,基于人工智能的高速發(fā)展與變化,如同《異形:契約》中的仿生人大衛(wèi)一般,它們可能基于現(xiàn)實變化而推翻之前對于人類的認知,將人類視作威脅。因此,通過仁慈性測試并不能保證人工智能未來的安全性?;谶@些理由,我們有理由對人工智能滅世論報以足夠的重視。
人工智能的威脅與休謨問題
Bostrom對于人工智能可能欺騙人類通過仁慈性測試的可能性似乎與休謨問題有著相同的邏輯。休謨指出,當我們通過歸納之前的經(jīng)驗而得出將來的結論時,我們就不得不面臨歸納所帶來的風險。舉例而言,我們不能因為太陽升起過999次就認定太陽會在明天升起第1000次;同樣的,歐洲人曾經(jīng)認定天鵝只有白色,因為他們只見過白色的天鵝,然而,當黑色的天鵝出現(xiàn)后,他們之前的推斷就被證明為錯誤的。同理,Bostrom對于人工智能的道德性具有相同的懷疑,即使人工智能在人們的日常生活中可以顯得善良而可靠,我們?nèi)匀徊粦摵鲆暼斯ぶ悄茉趯沓蔀槿祟愅{的可能性。這樣的警告使得人類在面對人工智能時不得不陷入一種兩難,一方面,我們可以心安理得地去享受人工智能為我們提供的便捷服務;但是在另一方面,我們又不得不小心謹慎地去提防人工智能的“背叛”。但是,正如同休謨問題指出的,我們永遠無法正確地指出明天的太陽是否會升起,我們也無法判斷人工智能在未來究竟會是善還是惡,這樣的懷疑指出了人們對于人工智能的輕信,卻無法帶來一個確定的結論。當然,我們也可以發(fā)現(xiàn),人類的日常生活中無時無刻都在面對這樣的“不確定性”,沒有人能夠真正地預測未來究竟會發(fā)生什么,就如同我們不能排除今天開車出門有發(fā)生車禍的可能性,但是我們不會因此不出門一樣;即使在明知人工智能可能帶有風險之后,某些人群仍然愿意忍受這種風險,享受人工智能的便利。
揣測超級智能的不可能性
與休謨問題的歸納性不同,愛爾蘭國立高威大學的John Danaher 教授對人類是否真的能夠理解人工智能的所思所想表示懷疑。我們可以意識到,大部分對于人工智能威脅的理論都建立在擬態(tài)邏輯上,人們幻想出一個可能的世界,并在其中推演人工智能背叛人類的可能性。但是,這樣的推演(如Bostrom所提出的假設),僅僅從人類視角,根據(jù)人工智能的技術性與現(xiàn)實進行假想;值得懷疑的是,這樣的推測是否真正還原了人工智能的思考方式?而人工智能又在多大程度上會如同推演中的那樣去行動?英國學者Kevin Warwick曾表示,“我們無法真正理解超級智能為什么做出這樣那樣的決定。當一個機器以超越我們緯度的方式進行思考時,我們又怎么可能去理解、推測它的想法,乃至和它進行討價還價呢?”
如人類想象中的其他超級智能,例如上帝,不同的是,人工智能或許是全知全能的,但是它的目的并非如同全善的上帝一般是去創(chuàng)造并維持這個世界的有序運行。我們可以從觀察自然世界中發(fā)現(xiàn)某些世界遵循的規(guī)律,并推測上帝設計了這些規(guī)律。但是,我們沒有理由去相信人工智能也會遵守并維護這些規(guī)律,而恰恰相反,人工智能擁有隨時破壞并制定新規(guī)定的能力。也正因為如此,我們有理由懷疑科學家是否應該中止開發(fā)人工智能,更可怕的是,如果Bostrom的假設為真,那么我們并不能知道人工智能是否已經(jīng)悄無聲息地背叛了人類。
當然,人工智能的擁護者會表示,這樣的懷疑忽略了人工智能帶給人類的巨大便利,以及其帶來的科技進步。至少在短期內(nèi)看來,我們還看不到人工智能有明確背叛人類的行為。但是,誰也不能保證人工智能在未來不會對人類的生活帶來危害。或許,人工智能目前為人類帶來的幫助,相比較于其可能帶來的危害是不值一提的。
結論
雖然我們可以對Bostrom的“人工智能滅世論”提出懷疑,但是我們不應該忽略該理論的嚴肅性。已經(jīng)有許多領域的專家指出,未來人類可能需要與機器共同生存,以延長人類的生命。但是,與功能單一且明確的機器不同,人工智能更加全面和多樣,不可否認的是,人工智能將會為人類帶來更多的好處。但是人類是否真的能夠相信在智力上遠遠超過我們的人工智能,人類設計的仁慈性測試又似乎不能確保人工智能的善良;因此如何保證持續(xù)進步人工智能無法對人類的未來造成毀滅性的打擊,將是人類在很長一段時間內(nèi)需要思考的問題。