為什么說我國人工智能的發(fā)展處于內(nèi)憂外患的狀態(tài)
人工智能的發(fā)展是否會危及人類福祉?如何保證人工智能的安全可控?11月2日,2019第一屆可信人工智能論壇在北京舉行,來自中國科學(xué)院、北京理工大學(xué)、上海交通大學(xué)等機構(gòu)的科學(xué)家圍繞上述問題進(jìn)行了探討。
“可信”是計算機領(lǐng)域的一個概念。在可信計算工作組TCG的定義中,如果一個實體的行為總是能以預(yù)期的方式達(dá)到預(yù)期的目標(biāo),那么這個實體就是“可信”的。 電氣電子工程師學(xué)會IEEE則將“可信”定義為一個計算機系統(tǒng)提供服務(wù)的可信賴性能夠被論證。雖然不同機構(gòu)對“可信”的定義略有差別,但總體而言,“可信”主要強調(diào)的是計算機系統(tǒng)和其處理過程的可預(yù)測性、可驗證性。
近年來,“可信”的概念也被引入到人工智能領(lǐng)域,許多國家或組織在制定人工智能發(fā)展指南時,都強調(diào)了“可信”的重要性。例如,歐盟于今年4月推出的倫理準(zhǔn)則就指出,“可信人工智能”有兩個必要的組成部分,一是尊重人類的基本權(quán)利、核心原則及價值觀,二是在技術(shù)上安全可靠。這也是目前全球的廣泛共識。
在11月2日的論壇上,中國科學(xué)院院士、上海人工智能安全專家委員會主任何積豐做了題為《安全可信人工智能:問題與展望》的報告。他指出,人工智能是一種“賦能”技術(shù),對于其安全問題,應(yīng)該從兩個層面來討論,一層是人工智能技術(shù)本身的安全問題,一層是人工智能與行業(yè)結(jié)合后的潛在風(fēng)險。
在何積豐看來,人工智能的安全發(fā)展面臨著“內(nèi)憂外患”,對內(nèi)要處理數(shù)據(jù)偏差、系統(tǒng)失誤等情況,對外則要應(yīng)對黑客攻擊、場景受限等問題。他解釋說,人工智能系統(tǒng)與傳統(tǒng)的軟件系統(tǒng)有很大區(qū)別,這使得其安全發(fā)展面臨一系列新挑戰(zhàn)。
例如,科學(xué)家訓(xùn)練人工智能算法時會設(shè)置獎勵函數(shù),以幫助算法學(xué)得更好。但在實踐中,人工智能也鬧出了不少笑話:一個機械手被要求把木塊挪到桌子的指定地點,于是機械手學(xué)會了挪桌子;讓程序?qū)W習(xí)檢測皮膚癌,程序卻發(fā)現(xiàn)惡性皮膚病變的照片里往往放著一把尺子,便以尺子來作為判斷標(biāo)準(zhǔn)。
“獎勵函數(shù)選擇合理性在哪里?什么情況下可以擴展人工智能的功能和使用范圍?怎么實現(xiàn)安全監(jiān)管?”何積豐說,獎勵函數(shù)的錯誤解讀,就是人工智能“內(nèi)憂”問題中的一個典型。“傳統(tǒng)軟件里面有目標(biāo)系統(tǒng),系統(tǒng)的可能行為一般是能夠進(jìn)行描述的。換句話說,用戶有明確的要求,系統(tǒng)應(yīng)該給我完成什么任務(wù)?但是機器學(xué)習(xí)的目標(biāo)系統(tǒng)行為與樣本選擇有關(guān),沒辦法驗證,也沒辦法進(jìn)行有效的分析?!?/p>
人工智能和具體的行業(yè)結(jié)合后,又會有哪些潛在風(fēng)險?何積豐以網(wǎng)絡(luò)安全為例做了說明。他認(rèn)為,人工智能將從設(shè)計、防護(hù)和認(rèn)證三個方面推動網(wǎng)絡(luò)安全技術(shù)的發(fā)展,但人工智能本身的算法、算力、網(wǎng)絡(luò)體系和數(shù)據(jù)體系也存在安全需求?!坝绕涫鞘墙鹑陲L(fēng)控和工業(yè)互聯(lián)網(wǎng)領(lǐng)域,很多設(shè)備還是依靠外國,還有很長的路要去走。另外也需要建立相應(yīng)的法律、法規(guī)、標(biāo)準(zhǔn)和社會倫理準(zhǔn)則。”
何積豐認(rèn)為,可信的人工智能應(yīng)該具備魯棒性、透明性、可解釋性、公平性等特征,并且具有自適應(yīng)和自我反省的能力。同時,人類應(yīng)該為人工智能技術(shù)的開發(fā)設(shè)定邊界,不能做無限開發(fā)。
在當(dāng)天的圓桌討論環(huán)節(jié),多位學(xué)者就人工智能的發(fā)展現(xiàn)狀進(jìn)行了探討。上海師范大學(xué)副研究員王俊龍?zhí)岬?,人工智能快速發(fā)展,行業(yè)亂象也隨之出現(xiàn),他甚至曾看到從業(yè)者公然宣稱要“不擇手段”地收集數(shù)據(jù)。
數(shù)據(jù)是人工智能發(fā)展的重要基礎(chǔ),但今年以來,多家數(shù)據(jù)公司因違法違規(guī)問題被調(diào)查,揭開了行業(yè)亂象一角。上海交通大學(xué)數(shù)據(jù)法律研究中心執(zhí)行主任何淵認(rèn)為,這也與法律的相對滯后有關(guān)。例如,刑法雖然就個人信息買賣作出了規(guī)定,但對個人信息收集并沒有詳細(xì)規(guī)定。監(jiān)管上的模糊地帶,導(dǎo)致很多公司缺乏自律、鋌而走險。
反觀美國和歐洲,近年來則屢次曝出天價處罰案例,谷歌、Facebook等大企業(yè)都曾受罰。在何淵看來,歐美的監(jiān)管方式有值得借鑒之處。在個人信息保護(hù)法和數(shù)據(jù)安全法尚未出臺的情況下,中國可考慮設(shè)置專門的行政監(jiān)管機構(gòu),“處罰力度跟歐美看齊”。
“在法律治理當(dāng)中,技術(shù)的重要性正在快速上升。 技術(shù)產(chǎn)生了新的社會風(fēng)險,沖擊現(xiàn)行的法律體系,也對執(zhí)法理念、執(zhí)法模式提出了新的要求?!北本煼洞髮W(xué)網(wǎng)絡(luò)法治國際中心執(zhí)行主任吳沈括說。
上海交通大學(xué)科學(xué)史與科學(xué)文化研究院副教授閆宏秀表示,人工智能倫理是人工智能未來發(fā)展的“錨定樁”。有效的人工智能倫理被視為推進(jìn)人工智能向善、確保人類對其可控及不受傷害、確保人類尊嚴(yán)與人類福祉的一個重要保障,但人工智能倫理的構(gòu)建并非易事。“可信任人工智能”應(yīng)基于信任邊界厘清的前提,兼顧技術(shù)倫理學(xué)的通用原則和人工智能自身的技術(shù)特性,確保人工智能向善。