隨著人類生活被人工智能廣泛滲透 公眾的接受程度也越來越高
日前,在寧召開的第二屆江蘇省人工智能大會上,中國科學(xué)院院士何積豐帶來主旨報告《可信人工智能》。他表示,隨著人類生活被人工智能廣泛滲透,公眾接受人工智能的程度也越來越高,隨之而來的就是人工智能的可信問題。
去年3月,美國優(yōu)步的一輛自動駕駛車在路試時撞倒一名行人,當(dāng)時行人正推著自行車在人行道之外橫穿馬路,關(guān)于責(zé)任認(rèn)定,車輛使用者和自動駕駛系統(tǒng)設(shè)計者開始扯皮。
“這些人工智能案例,是因為這些突發(fā)的場景并不在訓(xùn)練范圍,機器也就無法從容應(yīng)對。” 何積豐說,“可信”是計算機領(lǐng)域的一個概念,主要強調(diào)的是計算機系統(tǒng)和其處理過程的可預(yù)測性、可驗證性。近年來,“可信”的概念也被引入到人工智能領(lǐng)域。
可信人工智能由我國提出,并在G20會議上被各國所認(rèn)可,這也是關(guān)注人工智能發(fā)展的核心所在。人、機、物融合是當(dāng)前社會面臨的一個很重要的系統(tǒng)狀態(tài)。如果把人、機、物中間的物理運動以及眾多事件進行組合,如何進行系統(tǒng)性的訓(xùn)練和測試尤為重要。
在何積豐看來,人工智能的安全發(fā)展面臨著“內(nèi)憂外患”,對內(nèi)要處理數(shù)據(jù)偏差、系統(tǒng)失誤等情況,對外則要應(yīng)對黑客攻擊、場景受限等問題。他解釋,人工智能系統(tǒng)與傳統(tǒng)的軟件系統(tǒng)有很大區(qū)別,這使得其安全發(fā)展面臨一系列新挑戰(zhàn)。例如,讓程序?qū)W習(xí)檢測皮膚癌,程序卻發(fā)現(xiàn)惡性皮膚病變的照片里往往放著一把尺子,便以尺子來作為判斷標(biāo)準(zhǔn)。
如何保證人工智能安全可控?何積豐表示,人工智能能夠與行業(yè)、社會治理結(jié)合,具備新的賦能功能。因此,對于其安全問題,應(yīng)該從兩個層面來討論,一層是人工智能技術(shù)本身的安全問題,一層是人工智能與行業(yè)結(jié)合后的潛在風(fēng)險。以網(wǎng)絡(luò)安全為例,他認(rèn)為,人工智能很多目前應(yīng)用到一線的產(chǎn)品,其實效果遠(yuǎn)未達到理想狀態(tài),尤其是算法、算力、網(wǎng)絡(luò)體系和數(shù)據(jù)體系的安全性等,比如,數(shù)據(jù)傳輸過程中會不會被篡改,很難去驗證。
人工智能的“可信”,也需要建立相應(yīng)的法律、法規(guī)、標(biāo)準(zhǔn)和社會倫理準(zhǔn)則。比如,對數(shù)據(jù)進行分類,規(guī)定這個數(shù)據(jù)哪些地方能用,哪些地方不能用。人類應(yīng)該為人工智能技術(shù)的開發(fā)設(shè)定邊界,不能做無限開發(fā)。
此外,何積豐指出,現(xiàn)階段人工智能的通用性較弱,行業(yè)應(yīng)用場景差異較大,技術(shù)大規(guī)模的普及應(yīng)用仍未真正實現(xiàn)。因此需要有更多的技術(shù)推動人工智能通用發(fā)展,此趨勢不可阻擋,不僅是技術(shù)發(fā)展的需求,更是整個社會經(jīng)濟發(fā)展的需求。
“很多人擔(dān)心人工智能會不會帶來失業(yè)潮,機器人會不會取代人的工作,其實這些消息都有些夸大?!焙畏e豐表示,很多職業(yè)其實是被時代發(fā)展而淘汰的,機器人只是取代了一些簡單、重復(fù)的勞動,還有部分高危、人類不愿意參與的工作等。與此同時,技術(shù)的發(fā)展也帶來新的就業(yè)機會和新的職業(yè)。同時,我們也不必糾結(jié)于究竟何時能夠?qū)崿F(xiàn)真正的人工智能,去為它劃定時間界限,當(dāng)技術(shù)發(fā)展到一定階段,人工智能足夠安全,可以被人們信任、接受時,這樣的可信人工智能時代自然會到來。