用AI解決AI安全問(wèn)題是否可行
利用人工智能換臉技術(shù),將視頻中的臉換成另一張臉,每個(gè)人都可以和影視劇中的偶像明星同框,真假難辨……但如果視頻場(chǎng)景不那么“友好”,原本酷炫好玩的AI技術(shù)或許就成為讓人頭疼的存在。AI技術(shù)背后隱藏著的安全問(wèn)題可見(jiàn)一斑。
在中國(guó)科學(xué)院院士何積豐看來(lái),目前中國(guó)人工智能發(fā)展存在技術(shù)濫用、資源浪費(fèi)、方向不明等問(wèn)題,安全與治理需要頂層的戰(zhàn)略性思考和系統(tǒng)性規(guī)劃,要重視人工智能技術(shù)發(fā)展的經(jīng)濟(jì)成本和轉(zhuǎn)化效益,避免產(chǎn)生技術(shù)濫用、結(jié)構(gòu)性失業(yè)等問(wèn)題,將人工智能發(fā)展納入更廣泛的治理議題范疇。
保障人工智能安全方面,亟待解決的首先是AI法律和倫理道德問(wèn)題。上海市法學(xué)會(huì)專(zhuān)職副會(huì)長(zhǎng)施偉東建議:“能否嘗試定期發(fā)布人工智能與安全的法則,同步開(kāi)展立法研究,通過(guò)修法方式,進(jìn)入國(guó)家和地方法規(guī)?!彼M(jìn)一步說(shuō)明,上海需要在人工智能治理與安全領(lǐng)域中,加強(qiáng)地方法治機(jī)制和制度建設(shè)方面的探索,加強(qiáng)人工智能發(fā)展與法治的前瞻性研究,積極構(gòu)建人工智能未來(lái)法治體系,用法治保障人工智能健康持續(xù)發(fā)展。
具體體現(xiàn)在四個(gè)方面:一是抓好數(shù)據(jù)治理。開(kāi)發(fā)公共數(shù)據(jù)是人工智能發(fā)展必不可少的一環(huán),公共數(shù)據(jù)應(yīng)依法申請(qǐng)開(kāi)放,有選擇地開(kāi)放給相關(guān)企業(yè),企業(yè)依照相關(guān)法律法規(guī),承擔(dān)保密和保管責(zé)任。二是開(kāi)發(fā)者為算法公正透明創(chuàng)造條件,實(shí)現(xiàn)可監(jiān)管。三是建立跨平臺(tái)監(jiān)管體系。隨著5G、物聯(lián)網(wǎng)的介入,所有的平臺(tái)都應(yīng)該打通。四是監(jiān)管需要強(qiáng)大的技術(shù)支持,加緊部署用以監(jiān)管的人工智能系統(tǒng)。
大數(shù)據(jù)時(shí)代,幾乎任何領(lǐng)域都在不斷產(chǎn)生數(shù)據(jù)信息,這些龐雜卻擁有巨大信息量的數(shù)據(jù),恰恰為人工智能提供了“燃料”,但是用戶(hù)都是有隱私的,這就需要利用更多法律和技術(shù)手段去保護(hù)數(shù)據(jù),保護(hù)用戶(hù)隱私權(quán)。用AI自身的大數(shù)據(jù)處理技術(shù)來(lái)解決AI的安全問(wèn)題,是否切實(shí)可行,仍然是一個(gè)疑問(wèn)。而這自然成為了大家關(guān)注的焦點(diǎn),引發(fā)專(zhuān)家們熱烈討論。
除了AI涉及的用戶(hù)隱私、法律和倫理道德問(wèn)題,阿里集團(tuán)安全副總裁杜躍進(jìn)認(rèn)為,從廣義上看,AI自身的安全問(wèn)題還包括算法的公正性和壟斷性。
早在兩年前,數(shù)據(jù)科學(xué)家Cathy O'Neil便提出,不能指望市場(chǎng)來(lái)解決算法的公正性問(wèn)題,“自由市場(chǎng)無(wú)法解決任何問(wèn)題,因?yàn)槿藗儗?duì)利益的追逐驅(qū)使算法變得不公正。”她的建議是,分析用于構(gòu)建算法的數(shù)據(jù)是否含有偏見(jiàn),從而檢測(cè)算法數(shù)據(jù)的公正性,包括界定對(duì)于結(jié)果成功的定義,確保算法支持的是不帶偏見(jiàn)的目標(biāo),以及檢查整體的準(zhǔn)確度、控制算法長(zhǎng)期影響,避免數(shù)據(jù)的反饋回路。而目前,算法的公正性問(wèn)題仍未解決,也已經(jīng)不是AI自身能夠解決的安全難題了。
上海觀安信息首席專(zhuān)家張照龍?jiān)诎l(fā)言時(shí)指出,“AI+醫(yī)療”在不久后將實(shí)現(xiàn)5G設(shè)備+醫(yī)院檢查設(shè)備,患者在手機(jī)端便能實(shí)時(shí)獲得檢查報(bào)告和初步診斷數(shù)據(jù)。
但問(wèn)題在于,如何保證5G設(shè)備接入和傳輸過(guò)程中不被人通過(guò)惡意程序盜取并泄露數(shù)據(jù),即算法和數(shù)據(jù)本身存在安全隱患?!疤貏e要警惕算法的‘逆向攻擊’,加強(qiáng)對(duì)算法本身的檢驗(yàn)檢測(cè),”此外,張照龍的另一個(gè)建議是,建立一個(gè)安全的檢驗(yàn)檢測(cè)標(biāo)準(zhǔn),可以不是那么細(xì)致全面,但可以有針對(duì)性地對(duì)AI技術(shù)按照應(yīng)用場(chǎng)景和方式等進(jìn)行分類(lèi),檢測(cè)標(biāo)準(zhǔn)的方向和框架要比較完整。
對(duì)于大家普遍擔(dān)憂(yōu)的AI內(nèi)部防控問(wèn)題,華東師范大學(xué)計(jì)算機(jī)科學(xué)與軟件工程學(xué)院密碼與網(wǎng)絡(luò)安全系教授曹珍富認(rèn)為,可通過(guò)加強(qiáng)AI基礎(chǔ)研究,遵循架構(gòu)和模型的研究思路,嘗試解決當(dāng)前熱門(mén)的隱私計(jì)算和訪問(wèn)控制方面密碼算法的可用性問(wèn)題,“做到一次密碼算法保障所有的安全,才是真正的提高效率?!?/p>