我們?nèi)绾慰创斯ぶ悄艿某霈F(xiàn)
人工智能或可以有自我意志
霍金說(shuō),他所見(jiàn)證的最深刻的社會(huì)變化,同時(shí)也是對(duì)人類影響與日俱增的變化,就是人工智能的崛起。他認(rèn)為,強(qiáng)大的人工智能的崛起,要么是人類歷史上最好的事,要么是最糟的。人工智能的發(fā)展是好是壞仍不確定,但人類應(yīng)該竭盡所能,確保其未來(lái)發(fā)展對(duì)人類和環(huán)境有利。
霍金認(rèn)為,文明所提產(chǎn)生的一切都是人類智能的產(chǎn)物,他相信生物大腦可以達(dá)到的和計(jì)算機(jī)可以達(dá)到的,沒(méi)有本質(zhì)區(qū)別。因此,它遵循了“計(jì)算機(jī)在理論上可以模仿人類智能,然后超越”這一原則。但現(xiàn)在無(wú)法知道人類將會(huì)無(wú)限地得到人工智能的幫助,還是被藐視并被邊緣化,或者很可能被它毀滅。聰明的機(jī)器將能夠代替人類正在從事的工作,并迅速地消滅數(shù)以百萬(wàn)計(jì)的工作崗位。
在人工智能從原始形態(tài)不斷發(fā)展,并被證明非常有用的同時(shí),霍金也在擔(dān)憂創(chuàng)造一個(gè)可以等同或超越人類的事物所導(dǎo)致的結(jié)果:人工智能一旦脫離束縛,會(huì)以不斷加速的狀態(tài)重新設(shè)計(jì)自身。人類由于受到漫長(zhǎng)的生物進(jìn)化的限制,無(wú)法與之競(jìng)爭(zhēng),將被取代。未來(lái),人工智能可以發(fā)展出自我意志,一個(gè)與人類沖突的意志。
2015年1月份,霍金和科技企業(yè)家埃隆·馬斯克,以及許多其他的人工智能專家簽署了一份關(guān)于人工智能的公開(kāi)信,目的是提倡就人工智能對(duì)社會(huì)所造成的影響做認(rèn)真的調(diào)研。
人工智能失控的風(fēng)險(xiǎn)
現(xiàn)在,關(guān)于人工智能的研究正在迅速發(fā)展。這一研究可以從短期和長(zhǎng)期來(lái)討論。一些短期的擔(dān)憂在無(wú)人駕駛方面,從民用無(wú)人機(jī)到自主駕駛汽車。比如說(shuō),在緊急情況下,一輛無(wú)人駕駛汽車不得不在小風(fēng)險(xiǎn)的大事故和大概率的小事故之間進(jìn)行選擇。另一個(gè)擔(dān)憂在致命性智能自主武器。他們是否該被禁止?如果是,那么“自主”該如何精確定義。如果不是,任何使用不當(dāng)和故障的過(guò)失應(yīng)該如何問(wèn)責(zé)。還有另外一些擔(dān)憂,由人工智能逐漸可以解讀大量監(jiān)控數(shù)據(jù)引起的隱私和擔(dān)憂,以及如何管理因人工智能取代工作崗位帶來(lái)的經(jīng)濟(jì)影響。
長(zhǎng)期擔(dān)憂主要是人工智能系統(tǒng)失控的潛在風(fēng)險(xiǎn),隨著不遵循人類意愿行事的超級(jí)智能的崛起,那個(gè)強(qiáng)大的系統(tǒng)威脅到人類。當(dāng)前控制人工智能技術(shù)的工具,例如強(qiáng)化學(xué)習(xí),簡(jiǎn)單實(shí)用的功能,還不足以解決這個(gè)問(wèn)題。因此,人類需要進(jìn)一步研究來(lái)找到和確認(rèn)一個(gè)可靠的解決辦法來(lái)掌控這一問(wèn)題。
霍金認(rèn)為,比如說(shuō)之前提到的自主駕駛汽車,以及人工智能贏得圍棋比賽,都是未來(lái)趨勢(shì)的跡象。巨大的投入傾注到這項(xiàng)科技。科學(xué)家目前所取得的成就,和未來(lái)幾十年后可能取得的成就相比,必然相形見(jiàn)絀。人工智能的成功有可能是人類文明史上最大的事件。
人工智能有可能是人類文明的終結(jié)
霍金說(shuō),人工智能也有可能是人類文明史的終結(jié),除非人類學(xué)會(huì)如何避免危險(xiǎn)。人工智能的全方位發(fā)展可能招致人類的滅亡,比如最大化使用智能性自主武器。
今年早些時(shí)候,霍金和一些來(lái)自世界各國(guó)的科學(xué)家共同在聯(lián)合國(guó)會(huì)議上支持其對(duì)于核武器的禁令。目前,九個(gè)核大國(guó)可以控制大約一萬(wàn)四千個(gè)核武器,它們中的任何一個(gè)都可以將城市夷為平地,放射性廢物會(huì)大面積污染農(nóng)田,最可怕的危害是誘發(fā)核冬天,火和煙霧會(huì)導(dǎo)致全球的小冰河期。這一結(jié)果使全球糧食體系崩塌,末日般動(dòng)蕩,很可能導(dǎo)致大部分人死亡。
“我們作為科學(xué)家,對(duì)核武器承擔(dān)著特殊的責(zé)任,因?yàn)檎强茖W(xué)家發(fā)明了它們,并發(fā)現(xiàn)它們的影響比最初預(yù)想的更加可怕?!?/p>
機(jī)器人也應(yīng)有電子人的權(quán)利?
去年10月,霍金在英國(guó)劍橋建立了一個(gè)新的機(jī)構(gòu),試圖解決一些在人工智能研究快速發(fā)展中出現(xiàn)的尚無(wú)定論的問(wèn)題。
人工智能的最新進(jìn)展,包括歐洲議會(huì)呼吁起草一系列法規(guī),以管理機(jī)器人和人工智能的創(chuàng)新。令人感到些許驚訝的是,這里面涉及到了一種形式的電子人格,以確保最有能力和最先進(jìn)的人工智能的權(quán)利和責(zé)任。歐洲議會(huì)發(fā)言人評(píng)論說(shuō),隨著日常生活中越來(lái)越多的領(lǐng)域日益受到機(jī)器人的影響,我們需要確保機(jī)器人無(wú)論現(xiàn)在還是將來(lái),都為人類而服務(wù)。向歐洲議會(huì)議員提交的報(bào)告,明確認(rèn)為世界正處于新的工業(yè)機(jī)器人革命的前沿。
報(bào)告中分析的是否給機(jī)器人提供作為電子人的權(quán)利,這等同于法人(的身份),也許有可能。報(bào)告強(qiáng)調(diào),在任何時(shí)候,研究和設(shè)計(jì)人員都應(yīng)確保每一個(gè)機(jī)器人設(shè)計(jì)都包含有終止開(kāi)關(guān)。
奧斯本·克拉克跨國(guó)律師事務(wù)所的合伙人,洛納·布拉澤爾在報(bào)告中說(shuō),我們不承認(rèn)鯨魚(yú)和大猩猩有人格,所以也沒(méi)有必要急于接受一個(gè)機(jī)器人人格。但是擔(dān)憂一直存在。報(bào)告承認(rèn)在幾十年的時(shí)間內(nèi),人工智能可能會(huì)超越人類智力范圍,人工智能可能會(huì)超越人類智力范圍,進(jìn)而挑戰(zhàn)人機(jī)關(guān)系。報(bào)告最后呼吁成立歐洲機(jī)器人和人工智能機(jī)構(gòu),以提供技術(shù)、倫理和監(jiān)管方面的專業(yè)知識(shí)。如果歐洲議會(huì)議員投票贊成立法,該報(bào)告將提交給歐盟委員會(huì)。