人工智能武器威脅說(shuō)
最近,人工智能武器遭到激烈的反對(duì)和抗議之聲,促使一些人認(rèn)為機(jī)器人將最終取代人類,成為世界的主宰。這種可怕的想定不可能在近期內(nèi)成為現(xiàn)實(shí),但人工智能武器帶來(lái)的威脅確非常規(guī)人控武器可以比擬,我們有充足的理由對(duì)其說(shuō)“不”。
易變成殺戮機(jī)器
在谷歌的無(wú)人駕駛汽車(chē)身上,我們可一瞥人工智能的未來(lái)。想象一下,一個(gè)邪惡的犯罪集團(tuán)盜取了一輛無(wú)人汽車(chē),而后給車(chē)子裝上機(jī)關(guān)槍并對(duì)其重新編程,使其成為殺人武器。這種武器便是人工智能武器。人工智能武器的巨大潛力引起了政府的興趣。這一年,美國(guó)海軍宣布研制自治無(wú)人機(jī)武器的計(jì)劃。此外,韓國(guó)的Super aEgis II自動(dòng)炮臺(tái)以及俄羅斯的Platform-M自動(dòng)作戰(zhàn)機(jī)器研制計(jì)劃也浮出水面。
在研制智能武器方面,政府并不是唯一的參與者。想象一下,一種搭載著GoPro運(yùn)動(dòng)相機(jī)的四旋翼無(wú)人機(jī),絕大多數(shù)人都有能力購(gòu)買(mǎi)。再想象一下,有人研發(fā)出一款簡(jiǎn)單的軟件,允許這種無(wú)人機(jī)自主飛行。既然能夠讓無(wú)人汽車(chē)武器化,邪惡的犯罪集團(tuán)自然也能讓無(wú)人機(jī)武器化,在人員密集的公共場(chǎng)所制造大屠殺。人工智能武器構(gòu)成一個(gè)迫在眉睫的威脅:它們很容易被轉(zhuǎn)化成殺戮機(jī)器,不分青紅皂白地展開(kāi)屠殺,危險(xiǎn)性遠(yuǎn)遠(yuǎn)超過(guò)類型相同,但由人類操控的武器。
物理學(xué)家斯蒂芬·霍金和馬克斯·泰格馬克、科技業(yè)大佬伊隆·馬斯克以及其他很多人都在人類未來(lái)研究所的一份請(qǐng)?jiān)笗?shū)上簽名,呼吁禁止人工智能武器。在此之前的4月,聯(lián)合國(guó)召開(kāi)“殺手機(jī)器人”會(huì)議,但并沒(méi)有做出任何具有持久性的政策決定。人類未來(lái)研究所的請(qǐng)?jiān)笗?shū)稱人工智能武器的威脅迫在眉睫,需要采取行動(dòng)以避免在幾年內(nèi)釀成災(zāi)難。不過(guò),請(qǐng)?jiān)笗?shū)并沒(méi)有指出何種類型的智能武器已經(jīng)出現(xiàn)在地平線上。
更為現(xiàn)實(shí)的威脅
很多人擔(dān)心《終結(jié)者》中描寫(xiě)的末日景象將成為現(xiàn)實(shí)。片中,機(jī)器人擁有與人類相似的能力,企圖征服人類,成為地球的統(tǒng)治者。英國(guó)物理學(xué)家和天文學(xué)家馬丁·里斯提出了災(zāi)難性假設(shè)——機(jī)器人失去控制或者網(wǎng)絡(luò)擁有自我意識(shí)。他在劍橋的同事、哲學(xué)家休·普萊斯也表達(dá)了類似的擔(dān)憂,認(rèn)為人工智能一旦擺脫生物學(xué)束縛,人類便可能無(wú)法繼續(xù)存在下去。在兩個(gè)人的努力下,劍橋大學(xué)成立了存在威脅研究中心,力圖避免人類的生存遭遇如此災(zāi)難性的威脅。
這些假設(shè)確實(shí)值得研究,但遠(yuǎn)不如已經(jīng)出現(xiàn)在地平線上的人工智能武器構(gòu)成的威脅那么緊迫。無(wú)論按照何種標(biāo)準(zhǔn),我們都不可能在近期內(nèi)研發(fā)出類人人工智能。雷丁大學(xué)的聊天機(jī)器人尤金·古斯特曼被很多媒體稱之為“真正的人工智能”,因?yàn)樗屢恍┤讼嘈潘且粋€(gè)13歲的男孩,但事實(shí)證明古斯特曼與真正的人工智能仍相距甚遠(yuǎn)。
很多人之所以在請(qǐng)?jiān)笗?shū)上簽名的原因在于:與擁有自我意識(shí)的電腦網(wǎng)絡(luò)不同,安裝機(jī)關(guān)槍的無(wú)人汽車(chē)是一個(gè)更為現(xiàn)實(shí)的威脅。類似這樣的人工智能武器的真正威脅并非它們已經(jīng)處在毀滅世界的邊緣,而是任何一個(gè)電腦黑客只需很低的預(yù)算便可對(duì)它們進(jìn)行重新編程,將其變成高效并且不加選擇展開(kāi)屠殺的殺戮機(jī)器。智能武器本身并不可怕,真正可怕的是那些用心險(xiǎn)惡的人。
可被獨(dú)裁者利用
想象一下,一個(gè)野心勃勃的獨(dú)裁者決心清洗反對(duì)者。他有一個(gè)數(shù)據(jù)庫(kù),里面存儲(chǔ)著有關(guān)國(guó)民忠誠(chéng)度的數(shù)據(jù)、地址和照片。如果是在過(guò)去,這個(gè)獨(dú)裁者需要一支軍隊(duì)完成這個(gè)任務(wù),還需要賄賂士兵或者給他們洗腦,讓他們死心塌地地為自己效命。但如果是在未來(lái),他只需要購(gòu)買(mǎi)幾千架裝有自動(dòng)武器的無(wú)人機(jī)。(根據(jù)摩爾定律,人工智能無(wú)人機(jī)的價(jià)格將在未來(lái)的某一天降至與AK-47相當(dāng)?shù)某潭取?接下來(lái),效命于他的三四名軟件工程師對(duì)無(wú)人機(jī)進(jìn)行重新編程,而后派遣無(wú)人機(jī)到反對(duì)者的住處和工作場(chǎng)所附近巡邏,一旦發(fā)現(xiàn)目標(biāo)便予以射殺。無(wú)人機(jī)犯錯(cuò)的幾率更小,不會(huì)被人賄賂或者洗腦。最重要的是,它們的效率遠(yuǎn)遠(yuǎn)超過(guò)士兵,幫助野心勃勃的獨(dú)裁者在國(guó)際社會(huì)做出任何反應(yīng)之前將反對(duì)者全部清洗。
由于自動(dòng)化大幅提高效率,這就意味著喪心病狂的惡棍制造大屠殺的難度大幅降低。有了人工智能武器,過(guò)去的獨(dú)裁者需要掌控整個(gè)軍隊(duì)才能做到的事情,現(xiàn)在只要財(cái)力雄厚便可辦到。試圖研發(fā)這種武器的制造商和政府可能聲稱他們可以采取完備的防范措施,確保智能武器不會(huì)被重新編程或者被黑客入侵。對(duì)于這種態(tài)度,我們應(yīng)投以懷疑的目光。從電子投票機(jī)到自動(dòng)取款機(jī),再?gòu)乃{(lán)光光碟播放機(jī)到飛馳在高速路上的汽車(chē),它們都曾編織安全神話,但最近都在黑客的攻擊下破滅。歷史的教訓(xùn)告訴我們,計(jì)算設(shè)備往往屈服于企圖改變其用途的黑客,人工智能武器不可能成為一個(gè)例外。
對(duì)智能武器說(shuō)“不”
1925年,《日內(nèi)瓦議定書(shū)》簽訂,禁止在戰(zhàn)爭(zhēng)中使用窒息性、毒性或其他氣體以及細(xì)菌戰(zhàn)。空尖彈早在1899年便被禁用。未來(lái)是否會(huì)簽訂類似禁令,禁止使用某種人工智能武器?答案是肯定的。如果只需很低的成本便可輕易將某種人工智能機(jī)器改造成高效的,不加選擇地展開(kāi)屠殺的大規(guī)模殺傷性武器,禁止使用這種機(jī)器的國(guó)際公約便會(huì)浮出水面。這種機(jī)器與放射性金屬?zèng)]有本質(zhì)差別,都可以用于正當(dāng)用途,但我們必須謹(jǐn)慎對(duì)待,嚴(yán)加管控,防止其被改造成毀滅性武器。人工智能機(jī)器的可怕之處在于:對(duì)其進(jìn)行改造并將其用于破壞目的的難度遠(yuǎn)遠(yuǎn)低于改造核反應(yīng)堆。
我們之所以要禁止人工智能武器并不是因?yàn)檫@種武器本身,而是因?yàn)樾膽沿蠝y(cè)的人很容易將它們變成嗜血的惡魔。只需要一段簡(jiǎn)單的代碼,很多智能武器便可轉(zhuǎn)化成破壞性不亞于生化武器和空尖彈的殺戮機(jī)器。
禁止確定人工智能機(jī)器需要解答很多問(wèn)題。人工智能武器能否促使美國(guó)放棄“星球大戰(zhàn)”導(dǎo)彈防御計(jì)劃?如果汽車(chē)可以被作為武器使用,是否應(yīng)該禁止無(wú)人汽車(chē)?智能的確切定義是什么?武器的確定定義又是什么?所有這些都是非常重要的問(wèn)題,也很難找到答案。不過(guò),在我們同意簽署一項(xiàng)協(xié)定,控制人工智能武器之前,這些問(wèn)題無(wú)需解答。對(duì)于人工智能武器可接受的范圍,國(guó)際社會(huì)必須嚴(yán)肅考慮,認(rèn)真聽(tīng)取科學(xué)家、哲學(xué)家和電腦工程師的建議?,F(xiàn)在,美國(guó)國(guó)防部已經(jīng)在某種意義上禁止完全自治的武器,是時(shí)候在國(guó)際層面進(jìn)行細(xì)化和擴(kuò)大禁止范圍。當(dāng)然,任何一項(xiàng)國(guó)際禁令都無(wú)法完全遏制人工智能武器的擴(kuò)散,但我們沒(méi)有任何理由放任不管,不簽署任何禁令。既然我們有充分的理由禁止生化武器和空尖彈,我們同樣有充分的理由對(duì)人工智能武器說(shuō)“不”。