如何防范人工智能的技術(shù)性風(fēng)險
信息科技的飛速發(fā)展和廣泛應(yīng)用,孕育了“智能社會”這一特定的技術(shù)與社會建構(gòu)及社會文化形態(tài)。一種新型的人工智能驅(qū)動的經(jīng)濟和社會模式正在由無處不在的數(shù)據(jù)和算法催生而出,同時也帶來了一些法律和倫理問題。互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)的應(yīng)用,帶來的隱私保護、虛假信息、算法歧視、網(wǎng)絡(luò)安全等問題,引起社會廣泛關(guān)注。
智能社會面臨新的法律和倫理問題
一是人工智能的去主體性可能導(dǎo)致價值屬性的消解。人被視為擁有不可替代價值的主體,任何被納入該群體的人,只需在法律規(guī)定主體范疇內(nèi),均可獲得當(dāng)然的主體權(quán)利。但人工智能由于無法納入某一確定共同體而獲得統(tǒng)一規(guī)則化,因而也導(dǎo)致其主體性無法確定。隨著技術(shù)迭代,由于智能本身缺乏主體性基礎(chǔ),使得其無法作為任何法律規(guī)則調(diào)整的對象,導(dǎo)致人工智能的道德責(zé)任和法律責(zé)任基礎(chǔ)亦無從確定。同時,人類盡管尚未被人工智能所取代,但隨著人工智能介入的加深,人類將越發(fā)深陷于技術(shù)所編織的羅網(wǎng)之中。技術(shù)空間裹挾下的人類則可能產(chǎn)生異化,從而導(dǎo)致個體在原有主體價值屬性上的消解。
二是人工智能可能侵蝕原有人類社會基本結(jié)構(gòu)。羅爾斯提出的社會基本正義結(jié)構(gòu)依托于一個穩(wěn)定的互動結(jié)構(gòu),即理想化的市場需要保持足夠自由來保證參與者的競爭能力,使市場自生自發(fā)秩序持續(xù)演進的需要得到滿足。但如果是高度中心化的人工智能體系,則將主要借助于數(shù)據(jù)計算中心來支配所有接入要素,數(shù)據(jù)主義或許將構(gòu)成“數(shù)據(jù)巨型機”的意識形態(tài)。盡管社會運行效率得到提升,但是“數(shù)據(jù)巨型機”一旦缺乏限制和管控,就可能造成人與數(shù)據(jù)間關(guān)系破裂,進而可能導(dǎo)致個人自由的隱形喪失,“楚門效應(yīng)”也將由此產(chǎn)生。
三是人工智能可能帶來人類社會基本價值觀念與公平正義觀的轉(zhuǎn)變。倫理假定的基本價值是現(xiàn)代法律正當(dāng)性的基礎(chǔ),而隨著人工智能介入程度的加深,個體可計算的屬性愈加明顯,原有的公平正義基本價值將開始從抽象的人格向具體的數(shù)字化人格轉(zhuǎn)化,人類原有的社會價值基礎(chǔ)通過計算滲透,使得評價的權(quán)威由抽象的道德權(quán)威轉(zhuǎn)化為具體的人工智能算法,這將動搖現(xiàn)有人類社會法律基礎(chǔ)。由于數(shù)據(jù)交換可能變成新的價值創(chuàng)造源,因此個人數(shù)據(jù)極易遭到主動吸收利用,個人數(shù)據(jù)控制和管理的弱化也導(dǎo)致社會生活中不斷出現(xiàn)新的倫理沖突與道德悖論,這些都構(gòu)成了對現(xiàn)行主流社會道德價值體系的沖擊。
由于人工智能愈發(fā)強大的計算能力和對現(xiàn)有社會結(jié)構(gòu)及價值體系的不斷侵蝕,可能導(dǎo)致對個體尊嚴(yán)和形象的入侵、算法歧視上的侵害和自身主體價值的消解。如何規(guī)范人工智能、資本與權(quán)力的合作,重塑公平正義的社會結(jié)構(gòu)和技術(shù)結(jié)構(gòu),成為亟待解決的問題。因此,應(yīng)基于科技倫理的調(diào)適和嵌入,對傳統(tǒng)法律制度進行改造,并且從以社會監(jiān)管為重要內(nèi)容的政策體系構(gòu)建入手,建立以社會理性和科學(xué)理性為基本內(nèi)涵的風(fēng)險控制機制,從而防范人工智能的技術(shù)性風(fēng)險。
確立倫理標(biāo)準(zhǔn) 加強法律規(guī)制
法律由于天然內(nèi)含正義的基因,并通過權(quán)威性的制度體系設(shè)計反映道德的內(nèi)在要求,在發(fā)揮其自身的價值功用實現(xiàn)人們對公平正義期許的同時,將人的倫理訴求從任意和神秘的領(lǐng)域轉(zhuǎn)化為可以把握和預(yù)期的理性王國。技術(shù)理性中蘊含的正義要素與其具有一致性,這種價值理性內(nèi)涵為構(gòu)建人與技術(shù)間和諧有序的圖景提供了基礎(chǔ)。但是,技術(shù)內(nèi)部無法解決現(xiàn)有技術(shù)邏輯與基于理念的正義邏輯間的錯位。為此,有必要采取預(yù)防性措施應(yīng)對由人工智能引發(fā)的負(fù)面效應(yīng),并通過風(fēng)險控制機制和因應(yīng)性制度對其加以引導(dǎo),以明確人工智能的主體屬性,解決其與現(xiàn)行法律間的根本性沖突,實現(xiàn)從倫理規(guī)范、法律規(guī)則和政策規(guī)定等維度構(gòu)建制度性、法治化的社會治理體系。
一是確立人工智能倫理道德標(biāo)準(zhǔn),嵌入人類道德規(guī)范體系。道德規(guī)范作為特定領(lǐng)域針對特定目的的內(nèi)化價值追求,能夠使人工智能系統(tǒng)受到諸多價值標(biāo)準(zhǔn)和規(guī)范的約束,在面臨道德過載風(fēng)險時受到在價值理念上以人為中心的法律的制約。因此,應(yīng)明確需要嵌入的規(guī)范和價值并加以協(xié)調(diào),避免道德倫理的失范和法律的失序。為此,應(yīng)通過建立完整的道德規(guī)則和法律規(guī)范,促進技術(shù)倫理由隱性向顯性轉(zhuǎn)化,主要手段包括構(gòu)建和編寫人工智能與人類活動相協(xié)調(diào)所適用的基本規(guī)則。其原則可以概括為:1.人類利益原則,即保障人的權(quán)利和自由,強化隱私保護,優(yōu)化人類福祉和自然環(huán)境,尋求科技進步與社會、自然和諧發(fā)展的最大公約數(shù);2.責(zé)任原則,將人工智能的應(yīng)用納入監(jiān)管范圍,通過明確主體責(zé)任,識別、預(yù)防和減輕負(fù)面效應(yīng);3.比例原則,設(shè)定合理閾值,既要防止高于閾值上限時的道德過載,亦要對低于閾值時的道德負(fù)擔(dān)不足以及閾值過低時的法律規(guī)制尋求合理的比例原則;4.正義原則,將社會的倫理原則嵌入人工智能系統(tǒng),確保算法的透明以避免算法歧視,保障技術(shù)權(quán)益在社會范圍內(nèi)的公平合理分配。在人工智能價值權(quán)重設(shè)計階段,應(yīng)優(yōu)先考慮利益相關(guān)群體共同分享的價值體系,技術(shù)上要滿足不同空間和時間下價值和規(guī)范發(fā)生變化的可能性,保證人工智能設(shè)計的倫理價值與人類的規(guī)范相統(tǒng)一。
二是加強對人工智能的法律規(guī)制。在法律領(lǐng)域人工智能不具有主體資格的前提下,通過圍繞人工智能以機器為中心的特性進行制度設(shè)計,將正義作為衡量算法公平公正的標(biāo)尺,從構(gòu)建人工智能法律規(guī)則的維度實現(xiàn)算法的透明性、可解釋性,使資源優(yōu)化配置的功能與價值觀負(fù)載的制度相匹配。就法律規(guī)則整體建構(gòu)而言,我們可以在弱化復(fù)雜倫理困境的前提下構(gòu)建歸責(zé)原則,系統(tǒng)考量責(zé)任主體確定、多主體責(zé)任分擔(dān)比例、因果關(guān)系認(rèn)定等諸多要素,在立法、司法裁判和法律效果評價環(huán)節(jié)嵌入倫理性考量因素,進而將具體的道德考量因素轉(zhuǎn)化為可以實施的法律原則乃至法律規(guī)則。
三是強化制度創(chuàng)新與政策指引。人工智能在應(yīng)用于社會治理、提升公共服務(wù)有效性的同時,也可能導(dǎo)致相關(guān)管理部門與社會間產(chǎn)生“技術(shù)鴻溝”。由于算法歧視所導(dǎo)致的非理性決策,以及不同主體對人工智能發(fā)展不同程度上不相稱的告知、分析、審查和監(jiān)管能力,使得技術(shù)的高速發(fā)展容易產(chǎn)生溢出效應(yīng),導(dǎo)致社會和公民利益受損。為此,需要加強不同環(huán)節(jié)中不同主體間的深度合作,建立科學(xué)評估與倫理矯正機制。我們應(yīng)從構(gòu)建配套管理機制等方面入手,對社會治理理念、技術(shù)能力、行動流程等進行治理理論和制度的創(chuàng)新,作出整體性、全局性的戰(zhàn)略部署,制定加強產(chǎn)業(yè)促進與監(jiān)管的政策法律,將技術(shù)創(chuàng)新上升為“規(guī)劃理性”的法價值范疇,逐步強化價值發(fā)現(xiàn)中人的能動性干預(yù)和控制。
隨著人工智能的快速發(fā)展,一些道德悖論、倫理矛盾和司法困境不斷浮現(xiàn),對現(xiàn)有倫理標(biāo)準(zhǔn)和法律體系帶來挑戰(zhàn)??萍及l(fā)展與社會進步在追求效率的同時,應(yīng)兼顧公平與正義,通過立法等方法,明晰人工智能的相關(guān)法律責(zé)任制度、明確數(shù)據(jù)信息保護與隱私權(quán)保護、強化涉及人工智能發(fā)展的知識產(chǎn)權(quán)保護,建立起全流程的立法監(jiān)管體系。只有重視對控制風(fēng)險功能的法治化,輔以倫理為先導(dǎo)的社會規(guī)范調(diào)控體系,以及通過限制機制、禁止機制以及懲戒機制對人工智能的研發(fā)、使用和傳播加以規(guī)制,才能真正使科學(xué)技術(shù)的智慧之光與倫理的人性之光、法律制度的理性之光共同在智能時代交相輝映。