讓 AI 臣服的關(guān)鍵,在于掌控它的心理因素
早在 2014 年,英國物理學(xué)家史蒂芬‧霍金(Stephen Hawking)接受英國 BBC 采訪時就曾預(yù)言:“全面性的開發(fā)人工智能有一天可能會導(dǎo)致人類滅亡!”,今年 4 月在北京全球移動互聯(lián)網(wǎng)大會上,霍金的遠(yuǎn)程視訊演講又再度提到 AI 發(fā)展議題,他憂心地表示,“人工智能一旦脫離束縛,人類將不可能與之競爭”。
AI 失控會威脅人類?如何讓它“關(guān)機”
霍金和其他在“生命未來研究所”(Future of Life Institute)的科技企業(yè)家如 Tesla CEO 伊隆‧馬斯克(Elon Musk)等 1000 多名人工智能領(lǐng)域研究的重要專家就曾共同發(fā)表公開信,表示人工智能可以帶給社會極大幫助,但其深遠(yuǎn)影響也值得各界深思協(xié)商,不可控制的人工智能會帶給世界多大的威脅,沒有人能做擔(dān)保。
去年,Google 旗下的倫敦人工智能研究公司 Deep Mind 與英國牛津大學(xué)人類未來研究所(Future of Humanity Institute)與機器智慧研究所(Machine Intelligence Research Institute)聯(lián)合發(fā)表了〈可被安全中斷的人工智能〉研究報告,提出幫人工智能加上“紅色按鈕”的方法,防止人工智能高度發(fā)展后傷害人類或環(huán)境,并指出如何讓人工智能無法學(xué)會讓紅色按鈕失效。
不過,目前該團隊只有部分算法可以達到“紅色按鈕”的目標(biāo),而中斷人工智能的運作,其他部分則無法安全中斷,需要再接再厲。
不過幫人工智能加上開關(guān)是不是可行的解決辦法,目前還沒有定論,如瑞典哲學(xué)家 Nick Bostrom 在 Ted Talk 中就抱持不同的意見,他認(rèn)為,即使情況需要,人類也不一定會按下開關(guān),如即使知道我們過度依賴網(wǎng)絡(luò),我們也不會主動把網(wǎng)絡(luò)關(guān)掉。
為了測試人工智能是否可以被中斷運作,加州柏克萊大學(xué)(University of California, Berkeley) 的研究團隊設(shè)計了名為“關(guān)開關(guān)”(Off-Switch Game)的測試。在這個測試中,機器人被指定完成任務(wù),而人類可以在任何時刻按下機器人關(guān)機鍵接手完成任務(wù)。
順我者昌,逆我者亡——要關(guān)掉方便的 AI 嗎?
不過機器人也可以選擇讓關(guān)機鍵失效。在測試中,被給予高度“信心”的機器人從不讓人類把自己關(guān)掉,因為自己的工作效能大于人類;而“自信心不足”的機器人則可以輕易讓人類接手工作。
團隊中的博士生成員 Dylan Hadfield-Menell 表示,讓機器人信心不足并不是好事,如由 AI 駕駛的無人車送小孩去上學(xué)時,任何時刻 AI 都不應(yīng)該讓小孩接手駕駛。
太順從人類的意志不一定是好事,像是大家每天使用的臉書,臉書的算法順從人意,盡把我們想看的動態(tài)送到我們面前,這樣的“過濾泡泡”(Filter Bubble),卻使推播的信息把我們困在“同溫層”里,使得動態(tài)墻可能出現(xiàn)錯誤或虛假的新聞。
進化歷程脫離掌控,AI 會終結(jié)人類嗎?
對于 Handfield-Menell 團隊的成員來說,“關(guān)開關(guān)”測試只是開始,他們會接續(xù)一連串測試機器人決策過程的實驗,希望了解機器人在得取不同程度的信息時,會如何影響 AI 做出最終決定。
因為在不太久的未來,當(dāng)我們送出更多機器人上街或在公司、工廠甚至餐廳、便利商店工作時,我們需要知道,他們會不會因為比人類更快速的演化,最終作出不利人類全體利益的決定,像阿諾史‧瓦辛格主演的電影那樣,成為真實的“魔鬼終結(jié)者”。