讓 AI 臣服的關(guān)鍵,在于掌控它的心理因素
掃描二維碼
隨時(shí)隨地手機(jī)看文章
早在 2014 年,英國物理學(xué)家史蒂芬‧霍金(Stephen Hawking)接受英國 BBC 采訪時(shí)就曾預(yù)言:“全面性的開發(fā)人工智能有一天可能會(huì)導(dǎo)致人類滅亡!”,今年 4 月在北京全球移動(dòng)互聯(lián)網(wǎng)大會(huì)上,霍金的遠(yuǎn)程視訊演講又再度提到 AI 發(fā)展議題,他憂心地表示,“人工智能一旦脫離束縛,人類將不可能與之競爭”。
AI 失控會(huì)威脅人類?如何讓它“關(guān)機(jī)”
霍金和其他在“生命未來研究所”(Future of Life Institute)的科技企業(yè)家如 Tesla CEO 伊隆‧馬斯克(Elon Musk)等 1000 多名人工智能領(lǐng)域研究的重要專家就曾共同發(fā)表公開信,表示人工智能可以帶給社會(huì)極大幫助,但其深遠(yuǎn)影響也值得各界深思協(xié)商,不可控制的人工智能會(huì)帶給世界多大的威脅,沒有人能做擔(dān)保。
去年,Google 旗下的倫敦人工智能研究公司 Deep Mind 與英國牛津大學(xué)人類未來研究所(Future of Humanity Institute)與機(jī)器智慧研究所(Machine Intelligence Research Institute)聯(lián)合發(fā)表了〈可被安全中斷的人工智能〉研究報(bào)告,提出幫人工智能加上“紅色按鈕”的方法,防止人工智能高度發(fā)展后傷害人類或環(huán)境,并指出如何讓人工智能無法學(xué)會(huì)讓紅色按鈕失效。
不過,目前該團(tuán)隊(duì)只有部分算法可以達(dá)到“紅色按鈕”的目標(biāo),而中斷人工智能的運(yùn)作,其他部分則無法安全中斷,需要再接再厲。
不過幫人工智能加上開關(guān)是不是可行的解決辦法,目前還沒有定論,如瑞典哲學(xué)家 Nick Bostrom 在 Ted Talk 中就抱持不同的意見,他認(rèn)為,即使情況需要,人類也不一定會(huì)按下開關(guān),如即使知道我們過度依賴網(wǎng)絡(luò),我們也不會(huì)主動(dòng)把網(wǎng)絡(luò)關(guān)掉。
為了測試人工智能是否可以被中斷運(yùn)作,加州柏克萊大學(xué)(University of California, Berkeley) 的研究團(tuán)隊(duì)設(shè)計(jì)了名為“關(guān)開關(guān)”(Off-Switch Game)的測試。在這個(gè)測試中,機(jī)器人被指定完成任務(wù),而人類可以在任何時(shí)刻按下機(jī)器人關(guān)機(jī)鍵接手完成任務(wù)。
順我者昌,逆我者亡——要關(guān)掉方便的 AI 嗎?
不過機(jī)器人也可以選擇讓關(guān)機(jī)鍵失效。在測試中,被給予高度“信心”的機(jī)器人從不讓人類把自己關(guān)掉,因?yàn)樽约旱墓ぷ餍艽笥谌祟?而“自信心不足”的機(jī)器人則可以輕易讓人類接手工作。
團(tuán)隊(duì)中的博士生成員 Dylan Hadfield-Menell 表示,讓機(jī)器人信心不足并不是好事,如由 AI 駕駛的無人車送小孩去上學(xué)時(shí),任何時(shí)刻 AI 都不應(yīng)該讓小孩接手駕駛。
太順從人類的意志不一定是好事,像是大家每天使用的臉書,臉書的算法順從人意,盡把我們想看的動(dòng)態(tài)送到我們面前,這樣的“過濾泡泡”(Filter Bubble),卻使推播的信息把我們困在“同溫層”里,使得動(dòng)態(tài)墻可能出現(xiàn)錯(cuò)誤或虛假的新聞。
進(jìn)化歷程脫離掌控,AI 會(huì)終結(jié)人類嗎?
對于 Handfield-Menell 團(tuán)隊(duì)的成員來說,“關(guān)開關(guān)”測試只是開始,他們會(huì)接續(xù)一連串測試機(jī)器人決策過程的實(shí)驗(yàn),希望了解機(jī)器人在得取不同程度的信息時(shí),會(huì)如何影響 AI 做出最終決定。
因?yàn)樵诓惶玫奈磥?,?dāng)我們送出更多機(jī)器人上街或在公司、工廠甚至餐廳、便利商店工作時(shí),我們需要知道,他們會(huì)不會(huì)因?yàn)楸热祟惛焖俚难莼罱K作出不利人類全體利益的決定,像阿諾史‧瓦辛格主演的電影那樣,成為真實(shí)的“魔鬼終結(jié)者”。