人工智能的倫理問題如何解決
掃描二維碼
隨時(shí)隨地手機(jī)看文章
近年來,人工智能在自動(dòng)駕駛汽車、醫(yī)療、傳媒、金融、工業(yè)機(jī)器人以及互聯(lián)網(wǎng)服務(wù)等越來越多領(lǐng)域和場景應(yīng)用,其影響范圍越來越寬廣。各國產(chǎn)業(yè)巨頭已經(jīng)投入大量的精力和資金,開展人工智能關(guān)鍵技術(shù)的攻關(guān)與應(yīng)用相關(guān)的研究與產(chǎn)品開發(fā),并紛紛推出了不同的人工智能平臺(tái)與產(chǎn)品。這些發(fā)展一方面帶來了效率的提升、成本的降低,另一方面也給社會(huì)帶來了全新的倫理問題。
對(duì)人工智能倫理問題的探討,既包括形而上學(xué)的研究,也包括尋求解決實(shí)際的問題和求得社會(huì)共識(shí)的討論。如何在人工智能這一全新的技術(shù)條件下發(fā)現(xiàn)倫理共識(shí),對(duì)經(jīng)濟(jì)、社會(huì)和政治有著深遠(yuǎn)意義。目前,各國、各個(gè)行業(yè)組織、社會(huì)團(tuán)體和人工智能領(lǐng)域的商業(yè)公司紛紛提出人工智能的倫理準(zhǔn)則,對(duì)人工智能技術(shù)本身以及其應(yīng)用進(jìn)行規(guī)制。中國政府把人工智能作為產(chǎn)業(yè)升級(jí)和經(jīng)濟(jì)轉(zhuǎn)型的主要驅(qū)動(dòng)力,鼓勵(lì)、扶持和推動(dòng)人工智能的發(fā)展。在我國推動(dòng)人工智能發(fā)展的關(guān)鍵時(shí)期,開展人工智能倫理問題的探討有極為重要的意義。在此背景下,本文關(guān)注人工智能所引發(fā)的短期與長期的倫理問題以及相應(yīng)的治理對(duì)策,以期人工智能真正造福人類。
人工智能倫理問題與來源
在藝術(shù)作品中,不少人熟悉弗蘭肯斯坦的形象——一個(gè)在雷電中誕生的人和機(jī)器結(jié)合的怪物。人們對(duì)這些強(qiáng)大卻并不良善的力量,通常會(huì)感到恐懼。人工智能會(huì)不會(huì)和弗蘭肯斯坦這個(gè)怪物一樣呢?我們會(huì)不會(huì)創(chuàng)造一種技術(shù)最后毀滅了我們?nèi)祟??包括埃隆·馬斯克在內(nèi)的一眾技術(shù)領(lǐng)袖,公開提出了這個(gè)問題,這迅速引起了公眾的注意。在人工智能技術(shù)語境下,機(jī)器的自主性已經(jīng)超出人之前所預(yù)期的范圍,這當(dāng)然要求有新的責(zé)任體系的建構(gòu)。
人工智能倫理在公眾討論中最有名的雛形,來自科幻小說作者阿西莫夫提出的機(jī)器人三定律。今天我們知道,阿西莫夫機(jī)器人三定律并不能一勞永逸地建立對(duì)人工智能的合理約束,但它的真正價(jià)值是提出了一個(gè)可能性。這個(gè)可能性就是我們所創(chuàng)造的技術(shù)——在處理某些問題上比我們要迅速,在機(jī)械、物理力量上要比我們強(qiáng)的“自主”決策主體——不僅不會(huì)傷害人類,反而能夠造福人類社會(huì)。三定律所要處理的核心問題是人的主體性問題,這也是探討人工智能倫理和治理的核心問題。關(guān)于人工智能倫理和治理,無論是算法決策相關(guān)的問題、數(shù)據(jù)與隱私相關(guān)的問題和社會(huì)影響相關(guān)的問題,都關(guān)涉人的主體性問題。
從人工智能現(xiàn)有能力/技術(shù)潛力與它給人類社會(huì)帶來的負(fù)面后果的角度來看,會(huì)產(chǎn)生兩大類問題:1.人工智能被委以對(duì)人類事務(wù)做決策的能力,但它對(duì)決策結(jié)果的倫理判斷能力不足;2.人類缺乏引導(dǎo)人工智能發(fā)揮作用的終極倫理準(zhǔn)則。
第一類問題來自我們對(duì)人工智能系統(tǒng)對(duì)其決策結(jié)果的倫理意義缺乏判斷的憂慮。人工智能往往被用來解決一個(gè)具體問題,而且只能通過已有的有限數(shù)據(jù)來作出決策,往往無法像人一樣理解更廣的社會(huì)和倫理語境。故此,我們對(duì)人工智能缺乏對(duì)決策后果的倫理意義的認(rèn)知有恐懼,這是完全可以理解的。當(dāng)人工智能決策的后果涉及一個(gè)結(jié)果和另外一個(gè)結(jié)果之間的比較時(shí),往往造成難以預(yù)料的后果。例如,人可能給人工智能系統(tǒng)一個(gè)獲取食物的指令,結(jié)果這個(gè)系統(tǒng)卻殺死了人的寵物。這是因?yàn)槿斯ぶ悄軐?duì)某個(gè)結(jié)果的倫理意義無法完全理解,以致于錯(cuò)誤地執(zhí)行了指令。我們對(duì)人工智能對(duì)決策結(jié)果的倫理判斷能力不足的憂慮,在人工智能技術(shù)本身缺乏透明度(黑箱問題)時(shí)就更加嚴(yán)重了。人工智能采納的機(jī)器學(xué)習(xí)往往因?yàn)樗惴ǎɡ鐧C(jī)器學(xué)習(xí))和算力限制的原因,無法回溯機(jī)器作出決定的具體機(jī)制。無法回溯會(huì)帶來我們在事先預(yù)測后果和事后作出糾正的能力的局限,導(dǎo)致我們在決定是否應(yīng)用人工智能技術(shù)的問題上躊躇不決。
第二類問題來自我們對(duì)人工智能的潛力的憂慮。人工智能可能成為人類全部決定的參與和影響者,但我們尚且不知道沒有任何已知的倫理準(zhǔn)則能指引上述行為。人類創(chuàng)造的“上帝”無力護(hù)理這個(gè)世界,這讓我們恐懼震驚。我們擔(dān)心隨著人工智能的發(fā)展,它會(huì)導(dǎo)致已有的社會(huì)問題進(jìn)一步惡化,同時(shí)可能帶來新的社會(huì)問題。
從上述前提出發(fā),筆者從目的、手段兩個(gè)層面提出思考人工智能倫理(嵌入機(jī)器的倫理)的兩個(gè)基本方向:技術(shù)必須促進(jìn)人類的善(體現(xiàn)在人的根本利益原則);在越來越發(fā)達(dá)的機(jī)器的自主性背景下確認(rèn)人的主體性(體現(xiàn)在責(zé)任原則)。換言之,認(rèn)識(shí)到新的技術(shù)本身的特征和它的潛在社會(huì)影響,我們看到人工智能倫理要強(qiáng)調(diào):(1)人可以利用人工智能得到更大的能力(行善/傷害),因此有更大的責(zé)任,所以應(yīng)當(dāng)更加強(qiáng)調(diào)歸責(zé)性;(2)人工智能則必須服從人類設(shè)定的倫理規(guī)則。這也是《人工智能標(biāo)準(zhǔn)化白皮書(2018)》中提出了人工智能設(shè)計(jì)和應(yīng)用中應(yīng)遵循的兩個(gè)基本原則的基本依據(jù)。違反人的根本利益原則的人工智能,無論是用來欺詐顧客的營銷算法、用于司法造成歧視部分公民的司法決策系統(tǒng),還是對(duì)個(gè)人信息的過度收集和濫用,都違反人工智能倫理原則。
根據(jù)人工智能倫理風(fēng)險(xiǎn)的具體性質(zhì)與特征,可從算法、數(shù)據(jù)和應(yīng)用三個(gè)方面度來梳理人工智能的風(fēng)險(xiǎn)。對(duì)倫理風(fēng)險(xiǎn)的治理,需要立法和政策明確各相關(guān)主體的責(zé)任,包括信息提供者、信息處理者和系統(tǒng)協(xié)調(diào)者。此外,人工智能還可能對(duì)社會(huì)產(chǎn)生遠(yuǎn)期發(fā)展的風(fēng)險(xiǎn),如對(duì)既有的就業(yè)、市場競爭秩序、產(chǎn)權(quán)等法律制度的挑戰(zhàn),甚至生產(chǎn)方式的根本變革,這些我們將其歸入長期和間接的倫理風(fēng)險(xiǎn)之中。
算法方面
算法方面的風(fēng)險(xiǎn)主要包括算法安全問題、算法可解釋性問題、算法歧視問題和算法決策困境問題。算法安全問題產(chǎn)生于算法漏洞被黑客攻擊和惡意利用的挑戰(zhàn),同時(shí)算法從設(shè)計(jì)、訓(xùn)練到使用中面臨可信賴性問題和算法隨時(shí)可用對(duì)可靠性帶來挑戰(zhàn)。
算法可解釋性涉及人類的知情利益和主體地位,對(duì)人工智能的長遠(yuǎn)發(fā)展意義重大。國務(wù)院頒布《新一代人工智能發(fā)展規(guī)劃》,同時(shí),潘云鶴院士提到人工智能應(yīng)用的一個(gè)需要關(guān)注的問題是算法的不可解釋性。算法可解釋性問題在國外也引起媒體和公眾的關(guān)注。例如,電氣和電子工程師協(xié)會(huì)(IEEE)在2016年和2017年連續(xù)推出的《人工智能設(shè)計(jì)的倫理準(zhǔn)則》白皮書,在多個(gè)部分都提出了對(duì)人工智能和自動(dòng)化系統(tǒng)應(yīng)有解釋能力的要求。美國計(jì)算機(jī)協(xié)會(huì)美國公共政策委員會(huì)在2017年年初發(fā)布了《算法透明性和可問責(zé)性聲明》,提出了七項(xiàng)基本原則,其中一項(xiàng)即為“解釋”,希望鼓勵(lì)使用算法決策的系統(tǒng)和機(jī)構(gòu),對(duì)算法的過程和特定的決策提供解釋。2017年,美國加州大學(xué)伯克利分校發(fā)布了《對(duì)人工智能系統(tǒng)挑戰(zhàn)的伯克利觀點(diǎn)》,從人工智能的發(fā)展趨勢出發(fā),總結(jié)了九項(xiàng)挑戰(zhàn)和研究方向。其中之一,即第三項(xiàng),就是要發(fā)展可解釋的決策,使人們可以識(shí)別人工智能算法輸入的哪些特性引起了某個(gè)特定的輸出結(jié)果。
與可解釋性問題常常同時(shí)出現(xiàn)的是算法歧視問題,即在看似中立的算法中,由于算法的設(shè)計(jì)者的認(rèn)知存在某種偏見,或者訓(xùn)練算法使用了有問題的數(shù)據(jù)集等原因,帶來了人工智能系統(tǒng)決策出現(xiàn)帶有歧視性的結(jié)果。這類例子媒體時(shí)有報(bào)道,例如在金融領(lǐng)域“降低弱勢群體的信貸得分”、“拒絕向‘有色人種’貸款”、“廣告商更傾向于將高息貸款信息向低收入群體展示”等。
算法歧視主要分為“人為造成的歧視”“數(shù)據(jù)驅(qū)動(dòng)的歧視”與“機(jī)器自我學(xué)習(xí)造成的歧視”三類。人為造成的歧視,是指由于人為原因而使算法將歧視或偏見引入決策過程中。數(shù)據(jù)驅(qū)動(dòng)造成的歧視,是指由于原始訓(xùn)練數(shù)據(jù)存在偏見性,而導(dǎo)致算法執(zhí)行時(shí)將歧視帶入決策過程中。算法本身不會(huì)質(zhì)疑其所接收到的數(shù)據(jù),只是單純地尋找、挖掘數(shù)據(jù)背后隱含的模式或者結(jié)構(gòu)。如果數(shù)據(jù)一開始就存在某種選擇上的偏見或喜好,那么算法會(huì)獲得類似于人類偏見的輸出結(jié)果。機(jī)器自我學(xué)習(xí)造成的歧視,是指機(jī)器在學(xué)習(xí)的過程中會(huì)自我學(xué)習(xí)到數(shù)據(jù)的多維不同特征,即便不是人為地賦予數(shù)據(jù)集某些特征,或者程序員或科學(xué)家刻意避免輸入一些敏感的數(shù)據(jù),但是機(jī)器在自我學(xué)習(xí)的過程中,仍然會(huì)學(xué)習(xí)到輸入數(shù)據(jù)的其它特征,從而將某些偏見引入到?jīng)Q策過程中,這就是機(jī)器自我學(xué)習(xí)造成的歧視。
算法決策困境源于人工智能自學(xué)習(xí)能力導(dǎo)致的算法結(jié)果的不可預(yù)見性。為此要減少或杜絕算法決策困境,除了提高算法的可解釋性,還可以引入相應(yīng)的算法終結(jié)機(jī)制。
數(shù)據(jù)方面
數(shù)據(jù)方面的風(fēng)險(xiǎn)主要包括侵犯隱私的風(fēng)險(xiǎn)和個(gè)人敏感信息識(shí)別與保護(hù)的風(fēng)險(xiǎn)。在現(xiàn)代社會(huì),隱私保護(hù)是信任和個(gè)人自由的根本,同時(shí)也是人工智能時(shí)代維持文明與尊嚴(yán)的基本方式。人工智能時(shí)代下侵犯隱私的風(fēng)險(xiǎn)更大,受害者也更多。
傳統(tǒng)法律規(guī)范對(duì)隱私的保護(hù)集中于對(duì)個(gè)人在私人領(lǐng)域、私人空間活動(dòng)的保護(hù),以及個(gè)人私密的、非公開的信息保護(hù)。在個(gè)人信息的基礎(chǔ)之上,法律規(guī)范區(qū)分普通個(gè)人信息和個(gè)人敏感信息。法律通常對(duì)個(gè)人敏感信息予以更高的保護(hù),例如對(duì)個(gè)人敏感信息的處理需要基于個(gè)人信息主體的明示同意,或重大合法利益或公共利益的需要等,嚴(yán)格限制對(duì)個(gè)人敏感信息的自動(dòng)化處理,并要求對(duì)其進(jìn)行加密存儲(chǔ)或采取更為嚴(yán)格的訪問控制等安全保護(hù)措施。個(gè)人敏感信息在授權(quán)同意范圍外擴(kuò)散,或者個(gè)人信息的擴(kuò)散超出收集、使用個(gè)人信息的組織和機(jī)構(gòu)控制范圍,以及使用者超出授權(quán)使用(如變更處理目的、擴(kuò)大處理范圍等),都可能對(duì)個(gè)人信息主體權(quán)益帶來重大風(fēng)險(xiǎn)。
人工智能技術(shù)的應(yīng)用極大地?cái)U(kuò)展了個(gè)人信息收集的場景、范圍和數(shù)量。圖像識(shí)別、語音識(shí)別、語義理解等人工智能技術(shù)實(shí)現(xiàn)海量非結(jié)構(gòu)化數(shù)據(jù)的采集,而人工智能與物聯(lián)網(wǎng)設(shè)備的結(jié)合豐富了線下數(shù)據(jù)采集的場景。例如,家用機(jī)器人、智能冰箱、智能音箱等各種智能家居設(shè)備走進(jìn)人們的客廳、臥室,實(shí)時(shí)地收集人們的生活習(xí)慣、消費(fèi)偏好、語音交互、視頻影像等信息;各類智能助手在為用戶提供更加便捷服務(wù)的同時(shí),也在全方位地獲取和分析用戶的瀏覽、搜索、位置、行程、郵件、語音交互等信息;支持面部識(shí)別的監(jiān)控攝像頭,可以在公共場合且個(gè)人毫不知情的情況下,識(shí)別個(gè)人身份并實(shí)現(xiàn)對(duì)個(gè)人的持續(xù)跟蹤。這些都需要法律進(jìn)一步地規(guī)范。
社會(huì)方面
與社會(huì)相關(guān)的倫理問題主要包括算法濫用和誤用。算法濫用和誤用是指人們利用算法進(jìn)行分析、決策、協(xié)調(diào)、組織等一系列活動(dòng)中,其使用目的、使用方式、使用范圍等出現(xiàn)偏差并引發(fā)不良影響或不利后果的情況。例如,人臉識(shí)別算法能夠提高治安水平、加快發(fā)現(xiàn)犯罪嫌疑人的速度等,但是如果把人臉識(shí)別算法應(yīng)用于發(fā)現(xiàn)潛在犯罪人或者根據(jù)臉型判別某人是否存在犯罪潛質(zhì),就屬于典型的算法濫用。由于人工智能系統(tǒng)的自動(dòng)化屬性,算法濫用將放大算法所產(chǎn)生的錯(cuò)誤效果,并不斷強(qiáng)化成為一個(gè)系統(tǒng)的重要特征。
算法濫用主要由算法設(shè)計(jì)者出于經(jīng)濟(jì)利益或者其他動(dòng)機(jī)的操縱行為、平臺(tái)和使用者過度依賴算法、將算法的應(yīng)用盲目拓展到算法設(shè)計(jì)未曾考慮的領(lǐng)域等。電商平臺(tái)算法設(shè)計(jì)者推薦不符合用戶利益的產(chǎn)品,或者娛樂平臺(tái)為了自身的商業(yè)利益對(duì)用戶的娛樂或信息消費(fèi)行為進(jìn)行誘導(dǎo)、導(dǎo)致用戶沉迷等,都是算法設(shè)計(jì)者操縱行為的展現(xiàn)。在醫(yī)療領(lǐng)域過度依賴人工智能平臺(tái)的讀圖診斷,導(dǎo)致誤診,以及在安防領(lǐng)域和犯罪誤判導(dǎo)致的問題,都直接關(guān)系到公民的人身安全與自由。
應(yīng)當(dāng)注意的是,與社會(huì)相關(guān)的倫理問題有如下特性:其一,它們與個(gè)人切身利益密切相關(guān),如算法應(yīng)用在犯罪評(píng)估、信用貸款、雇傭評(píng)估等關(guān)切人身利益的場合,對(duì)個(gè)人切身利益的影響廣泛。其二,它們帶來的問題通常難以短時(shí)間應(yīng)對(duì),例如深度學(xué)習(xí)是一個(gè)典型的“黑箱”算法,如果深度學(xué)習(xí)為基礎(chǔ)建立的模型存在歧視,應(yīng)對(duì)時(shí)難以查清原因。其三,在商業(yè)應(yīng)用中出現(xiàn)這類問題時(shí),由于資本的逐利性,公眾權(quán)益容易受到侵害。
人工智能治理原則與實(shí)踐
人工智能技術(shù)的特質(zhì)及其倫理挑戰(zhàn),給社會(huì)的治理帶來了問題。傳統(tǒng)上,治理所預(yù)設(shè)能夠遵循規(guī)則的主體(Agent),也就是人本身。今天我們認(rèn)識(shí)到人工智能的特征在于其高度的自主性,即其決策不再需要操控者進(jìn)一步的指令,考慮到這種決策可能會(huì)產(chǎn)生人類預(yù)料不到的結(jié)果,人工智能技術(shù)的設(shè)計(jì)者和應(yīng)用者必須在人工智能技術(shù)研發(fā)、應(yīng)用的各個(gè)環(huán)節(jié)貫徹倫理原則,以實(shí)現(xiàn)對(duì)人工智能的有效治理。
在傳統(tǒng)技術(shù)領(lǐng)域,常見的防止損害的方式是在造成傷害之后進(jìn)行干預(yù)。但是,等待人工智能系統(tǒng)造成傷害之時(shí)才考慮干預(yù),很多時(shí)候?yàn)闀r(shí)已晚。一個(gè)更好的方法是將即時(shí)和持續(xù)的倫理風(fēng)險(xiǎn)評(píng)估和合規(guī)體系建設(shè)作為系統(tǒng)運(yùn)行的一個(gè)組成部分,即時(shí)和持續(xù)評(píng)估人工智能系統(tǒng)是否存在倫理風(fēng)險(xiǎn)、并在損害產(chǎn)生之前以及損害不大的時(shí)候就通過合規(guī)體系進(jìn)行處理。即時(shí)和持續(xù)的風(fēng)險(xiǎn)評(píng)估對(duì)于人工智能系統(tǒng)的保障要比按下“緊急按鈕”要有效得多。
故此,我們在討論人工智能治理應(yīng)遵循的思路和邏輯時(shí),必須警醒行業(yè)自律的有限性和立法的滯后性。如阿西莫夫等科技倫理的思想者所意識(shí)到的,必須將倫理在技術(shù)層面就進(jìn)行明確,才能保證治理的有效性。構(gòu)建人工智能的倫理標(biāo)準(zhǔn)是治理不可或缺的一面。此外,根據(jù)法律和政策本身的特征來制定法律、完善政策、設(shè)立管制機(jī)構(gòu),也是治理必須執(zhí)行的方法。
國內(nèi)外人工智能治理方面的探索值得我們關(guān)注和借鑒。例如,歐盟通過對(duì)機(jī)器人規(guī)制體現(xiàn)了依據(jù)人工智能倫理來設(shè)計(jì)治理體系的前沿探索。美國于2016年出臺(tái)的戰(zhàn)略文件就提出要理解并解決人工智能的倫理、法律和社會(huì)影響。英國政府曾在其發(fā)布的多份人工智能報(bào)告中提出應(yīng)對(duì)人工智能的法律、倫理和社會(huì)影響,最為典型的是英國議會(huì)于2018年4月發(fā)出的長達(dá)180頁的報(bào)告《英國人工智能發(fā)展的計(jì)劃、能力與志向》。
聯(lián)合國于2017年9月發(fā)布《機(jī)器人倫理報(bào)告》,建議制定國家和國際層面的倫理準(zhǔn)則。電氣和電子工程師協(xié)會(huì)(Institute of Electrical and Electronics Engineers,IEEE)于2016年啟動(dòng)“關(guān)于自主/智能系統(tǒng)倫理的全球倡議”,并開始組織人工智能設(shè)計(jì)的倫理準(zhǔn)則。在未來生命研究所(future of life insTItute,F(xiàn)LI)主持下,近4000名各界專家簽署支持23條人工智能基本原則。
我國也在這個(gè)方面開展了探索與實(shí)踐。2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》提出了中國的人工智能戰(zhàn)略,制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范作為重要的保證措施被提了出來。2018年1月18日,在國家人工智能標(biāo)準(zhǔn)化總體組、專家咨詢組的成立大會(huì)上發(fā)布了《人工智能標(biāo)準(zhǔn)化白皮書(2018)》。白皮書論述了人工智能的安全、倫理和隱私問題,認(rèn)為設(shè)定人工智能技術(shù)的倫理要求,要依托于社會(huì)和公眾對(duì)人工智能倫理的深入思考和廣泛共識(shí),并遵循一些共識(shí)原則。
人工智能技術(shù)的開發(fā)和應(yīng)用深刻地改變著人類的生活,不可避免地會(huì)沖擊現(xiàn)有的倫理與社會(huì)秩序,引發(fā)一系列問題。這些問題可能表現(xiàn)為直觀的短期風(fēng)險(xiǎn),如算法漏洞存在安全隱患、算法偏見導(dǎo)致歧視性政策的制定等,也可能相對(duì)間接和長期,如對(duì)產(chǎn)權(quán)、競爭、就業(yè)甚至社會(huì)結(jié)構(gòu)的影響。盡管短期風(fēng)險(xiǎn)更具體可感,但長期風(fēng)險(xiǎn)所帶來的社會(huì)影響更為廣泛而深遠(yuǎn),同樣應(yīng)予重視。
人工智能技術(shù)的日新月異與治理體系相對(duì)穩(wěn)定性之間不可避免地存在矛盾,這需要我們明確應(yīng)對(duì)人工智能的基本原則。在國際范圍內(nèi)比較,人工智能倫理基本原則以2017年1月在阿西洛馬召開的“有益的人工智能”(Beneficial AI)會(huì)議提出的“阿西洛馬人工智能原則”(Asilomar AI Principles),以及電氣和電子工程師協(xié)會(huì)(IEEE)組織開展的人工智能倫理標(biāo)準(zhǔn)的工作受到了最多的關(guān)注。此前,各國也提出了機(jī)器人原則與倫理標(biāo)準(zhǔn)。作者認(rèn)為,我國人工智能的研究和應(yīng)用應(yīng)遵循兩個(gè)人工智能倫理基本原則,即人的根本利益原則和責(zé)任原則。
人的根本利益原則
人的根本利益原則,即人工智能應(yīng)以實(shí)現(xiàn)人的根本利益為終極目標(biāo)。這一原則體現(xiàn)對(duì)人權(quán)的尊重、對(duì)人類和自然環(huán)境利益最大化以及降低技術(shù)風(fēng)險(xiǎn)和對(duì)社會(huì)的負(fù)面影響。人的根本利益原則要求:
(1)在對(duì)社會(huì)的影響方面,人工智能的研發(fā)與應(yīng)用以促進(jìn)人類向善為目的(AIforgood),這也包括和平利用人工智能及相關(guān)技術(shù),避免致命性人工智能武器的軍備競賽。
(2)在人工智能算法方面,人工智能的研發(fā)與應(yīng)用應(yīng)符合人的尊嚴(yán),保障人的基本權(quán)利與自由;確保算法決策的透明性,確保算法設(shè)定避免歧視;推動(dòng)人工智能的效益在世界范圍內(nèi)公平分配,縮小數(shù)字鴻溝。
(3)在數(shù)據(jù)使用方面,人工智能的研發(fā)與應(yīng)用要關(guān)注隱私保護(hù),加強(qiáng)個(gè)人數(shù)據(jù)的控制,防止數(shù)據(jù)濫用。
責(zé)任原則
責(zé)任原則,即在人工智能相關(guān)的技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,以便在人工智能應(yīng)用結(jié)果導(dǎo)致人類倫理或法律的沖突問題時(shí),人們能夠從技術(shù)層面對(duì)人工智能技術(shù)開發(fā)人員或設(shè)計(jì)部門問責(zé),并在人工智能應(yīng)用層面建立合理的責(zé)任體系。在責(zé)任原則下,在人工智能技術(shù)開發(fā)方面應(yīng)遵循透明度原則;在人工智能技術(shù)應(yīng)用方面則應(yīng)當(dāng)遵循權(quán)責(zé)一致原則。
透明度原則
透明度原則要求人工智能的設(shè)計(jì)中,保證人類了解自主決策系統(tǒng)的工作原理,從而預(yù)測其輸出結(jié)果,即人類應(yīng)當(dāng)知道人工智能如何以及為何做出特定決定。透明度原則的實(shí)現(xiàn)有賴于人工智能算法的可解釋性(explicability)、可驗(yàn)證性(verifiability)和可預(yù)測性(predictability)。
權(quán)責(zé)一致原則
權(quán)責(zé)一致原則,是指在人工智能的設(shè)計(jì)和應(yīng)用中應(yīng)當(dāng)保證問責(zé)的實(shí)現(xiàn),這包括:在人工智能的設(shè)計(jì)和使用中留存相關(guān)的算法、數(shù)據(jù)和決策的準(zhǔn)確記錄,以便在產(chǎn)生損害結(jié)果時(shí)能夠進(jìn)行審查并查明責(zé)任歸屬。權(quán)責(zé)一致原則的實(shí)現(xiàn)需要建立人工智能算法的公共審查制度。公共審查能提高相關(guān)政府、科研和商業(yè)機(jī)構(gòu)采納的人工智能算法被糾錯(cuò)的可能性。合理的公共審查能夠保證一方面必要的商業(yè)數(shù)據(jù)應(yīng)被合理記錄、相應(yīng)算法應(yīng)受到監(jiān)督、商業(yè)應(yīng)用應(yīng)受到合理審查,另一方面商業(yè)主體仍可利用合理的知識(shí)產(chǎn)權(quán)或者商業(yè)秘密來保護(hù)本企業(yè)的利益。
應(yīng)當(dāng)明確,我們所說的人工智能倫理原則,不僅應(yīng)當(dāng)由人工智能系統(tǒng)的研發(fā)和應(yīng)用 的人類主體遵守(包括在研究機(jī)構(gòu)、行業(yè)領(lǐng)域的科技企業(yè)和科技工作者),而且這些原則應(yīng)當(dāng)嵌入人工智能系統(tǒng)本身。機(jī)器如何遵循倫理規(guī)則這一點(diǎn),有人仍有質(zhì)疑。典型的看法是,倫理規(guī)則只是給人的,沒有可能給人工智能系統(tǒng)(包括機(jī)器人)設(shè)定倫理規(guī)則。的確,傳統(tǒng)上倫理原則所針對(duì)的是能夠遵循這些原則的主體(Agent)也就是人本身。但是,考慮到人工智能的特征在于機(jī)器對(duì)人的智能的“模擬、延伸和擴(kuò)展”,即其決策 不需要操控者一步步的指令,同時(shí)這種決策可能會(huì)產(chǎn)生人類預(yù)料不到的結(jié)果,人工智能系統(tǒng)也應(yīng)當(dāng)受到倫理規(guī)則的規(guī)制。
結(jié)論
社會(huì)必須信任人工智能技術(shù)能夠給人帶來的利益大于傷害,才有可能支持繼續(xù)發(fā)展人工智能。而這種信任,需要我們認(rèn)識(shí)和探討人工智能領(lǐng)域的倫理和治理問題,并且在發(fā)展人工智能技術(shù)發(fā)展的早期就有意識(shí)地加以運(yùn)用。今天學(xué)者、科技工作者和社會(huì)已經(jīng)有基本共識(shí),就是負(fù)責(zé)人工智能系統(tǒng)的研發(fā)和應(yīng)用的人類主體,包括在研究機(jī)構(gòu)、行業(yè)領(lǐng)域的科技企業(yè)和科技工作者,應(yīng)當(dāng)服從一些基本的倫理原則。本文提出的兩個(gè)基本倫理原則,是國內(nèi)在這方面思考的總結(jié)和升華。除了人工智能的基本倫理原則,前人給我們的另一個(gè)啟發(fā)是人工智能倫理應(yīng)該嵌入系統(tǒng)本身。當(dāng)我們越來越依賴于機(jī)器人代替我們作出決策時(shí),我們應(yīng)當(dāng)在這個(gè)決策過程中嵌入倫理思考,而不是等待決策結(jié)果已經(jīng)給我們帶來負(fù)面影響之后再去糾正。
本文希望用一種更清醒的眼光去看待人工智能倫理和治理問題。學(xué)者和公眾需要一起探討:我們有沒有可能防止人工智能給個(gè)人和社會(huì)帶來的損害?只有在這個(gè)問題得到更深入的思考和妥善解決的時(shí)候,人工智能的發(fā)展才有真正的基礎(chǔ)。
轉(zhuǎn)自丨法理雜志