2月21日,一份由25名技術(shù)與公共政策研究員共同發(fā)布的報(bào)告指出,快速發(fā)展的人工智能(AI)被惡意利用的風(fēng)險(xiǎn)呈上升趨勢(shì),一旦遭黑客攻擊,或釀成無人駕駛的車禍,商業(yè)無人機(jī)也可能變成有針對(duì)性的武器。
參與這份報(bào)告的撰寫者包括來自劍橋、牛津和耶魯大學(xué)的25位技術(shù)與公共政策研究人員,以及隱私和軍事專家。報(bào)告旨在就可能發(fā)生的濫用人工智能行為敲響警鐘。
研究人員表示,基于對(duì)五年內(nèi)人工智能技術(shù)發(fā)展進(jìn)程的預(yù)估,其認(rèn)為惡意使用人工智能會(huì)對(duì)數(shù)字、物理和政治安全造成迫在眉睫的威脅,因?yàn)樗赡鼙焕脕韺?shí)施大規(guī)模的、極具針對(duì)性的高效攻擊。
“我們都同意,人工智能可以有很多積極的應(yīng)用。”牛津未來人類研究所研究員Miles Brundage表示:“但圍繞惡意使用人工智能問題的文獻(xiàn)少得多。”
人工智能一般使用計(jì)算機(jī)執(zhí)行通常需要人類智能的任務(wù),例如做出決定或識(shí)別文本、語音或視覺圖像。
人工智能被認(rèn)為是實(shí)現(xiàn)各種技術(shù)可能性的一股強(qiáng)大力量,但它已經(jīng)成為了學(xué)界激烈爭(zhēng)論的焦點(diǎn)。爭(zhēng)論涉及的問題主要在于,通過人工智能實(shí)現(xiàn)的大規(guī)模自動(dòng)化是否會(huì)造成大規(guī)模失業(yè)和其他社會(huì)混亂。
而這篇98頁的文章警告稱,通過使用AI來完成原本可能需要人力和專業(yè)知識(shí)才能完成的任務(wù),或?qū)⒔档凸舻某杀?。未來可能?huì)出現(xiàn)新的攻擊,單靠人類獨(dú)自開發(fā)或利用AI系統(tǒng)本身的脆弱性是不切實(shí)際的。
報(bào)告綜述了大量關(guān)于人工智能造成安全風(fēng)險(xiǎn)的學(xué)術(shù)研究,并呼吁各國政府和政策及技術(shù)專家通力合作,一同化解此類危險(xiǎn)。
研究人員詳細(xì)介紹了人工智能生成合成圖像、文本和音頻的能力,它可以被用來在網(wǎng)絡(luò)上模仿他人行為,以左右輿論。報(bào)告提出的建議包括將人工智能作為軍用和商用兩種用途的技術(shù)來進(jìn)行管理。
報(bào)告還提出了問題——學(xué)者是否應(yīng)該對(duì)其發(fā)表和披露的有關(guān)人工智能新發(fā)展的內(nèi)容有所保留,是否應(yīng)該在該領(lǐng)域的其他專家研究并找到應(yīng)對(duì)潛在危險(xiǎn)的方法后,再將結(jié)果公之于眾。
“我們最終得到的問題比答案多得多。”Brundage說。
這篇論文誕生于2017年初的一次研討會(huì)上,自那以后,其中一些預(yù)言基本上成真了。作者們當(dāng)時(shí)預(yù)測(cè),人工智能可以用于制作極度仿真的政府官員音頻和視頻,從而用于宣傳目的。
而去年年底,一些仿真的色情視頻開始在網(wǎng)上流傳,一些名人的面孔被嫁接到不同的身體上,有些效果可以以假亂真。
特拉斯公司首席執(zhí)行官馬斯克和硅谷投資者薩姆·阿爾特曼創(chuàng)立的OpenAI組織政策主管杰克·克拉克表示:“雖然它現(xiàn)在被用在了色情行業(yè),而非政治宣傳,但是,這一技術(shù)被應(yīng)用于后者也不是不可能。”