人工智能的開發(fā)的道德邊界在哪里
掃描二維碼
隨時(shí)隨地手機(jī)看文章
雷鋒網(wǎng) AI 科技評(píng)論按:10 月 17 日至 19 日,由 CCF 主辦、蘇州工業(yè)園區(qū)管委會(huì)、蘇州大學(xué)承辦的 CNCC 2019 在蘇州成功舉辦。今年大會(huì)以「智能+引領(lǐng)社會(huì)發(fā)展」為主題,選址蘇州金雞湖國際會(huì)議中心召開。雷鋒網(wǎng) AI 科技評(píng)論將會(huì)作為戰(zhàn)略合作媒體進(jìn)行全程跟蹤報(bào)道。除了 15 場(chǎng)特邀報(bào)告外,今年 CNCC 的 79 場(chǎng)技術(shù)論壇作為會(huì)議的另一大重要組成部分,也是參會(huì)者重點(diǎn)關(guān)注的內(nèi)容。其中「人工智能開發(fā)的道德邊界在哪里?」技術(shù)論壇應(yīng)該是所有論壇當(dāng)中“戰(zhàn)火”最濃的一個(gè),數(shù)十位各領(lǐng)域?qū)<引R聚一堂,針對(duì)AI倫理問題激烈探討了整個(gè)下午。
“不講title,激烈思辨”是YOCSEF的特性。YOCSEF,全稱為“中國計(jì)算機(jī)學(xué)會(huì)青年計(jì)算機(jī)科技論壇”,它是一個(gè)重在以思辨的方式討論計(jì)算機(jī)相關(guān)產(chǎn)學(xué)研等相關(guān)問題的論壇。YOCSEF的規(guī)矩是,任何參與這個(gè)論壇的人都可以發(fā)言,而且發(fā)言中不講TItle,所有人直呼其名,平等發(fā)聲,因此每次YOCSEF舉辦活動(dòng)都會(huì)“戰(zhàn)火彌漫”,碰撞出智慧的火花。
本次論壇主題為討論「人工智能開發(fā)的道德邊界」問題,匯聚了包括從事計(jì)算機(jī)科學(xué)、人工智能、哲學(xué)、倫理學(xué)、法律等行業(yè)的專業(yè)人士。各位專家就相應(yīng)論題,分別從各自專業(yè)角度對(duì)人工智能倫理問題做了深入探討。
一、AI 倫理的邊界
近年來隨著人工智能技術(shù)不斷在各行各業(yè)中得到廣泛應(yīng)用,AI對(duì)人類社會(huì)的影響可謂是方方面面。例如最近較為火爆的換臉技術(shù)產(chǎn)生的數(shù)據(jù)安全問題、大數(shù)據(jù)產(chǎn)生的“殺熟”問題、自動(dòng)駕駛的安全責(zé)任問題、人臉識(shí)別產(chǎn)生的隱私問題等。
在這諸多問題中,哪些是能做的?哪些是不能做的?以及我們能做到什么程度?這對(duì)我們?nèi)祟悂碚f都是不小的挑戰(zhàn),因?yàn)檫@是我們?nèi)祟悢?shù)百萬來所面臨的全新問題。對(duì)這些問題的回答就是為AI倫理劃定一個(gè)不可逾越的邊界。
北京大學(xué)鄧小鐵教授
北京大學(xué)鄧小鐵教授在引導(dǎo)發(fā)言中提出,任何一項(xiàng)新技術(shù)的興起都會(huì)引發(fā)一系列的爭(zhēng)議,AI也同樣不例外。那么當(dāng)AI技術(shù)的應(yīng)用在人類社會(huì)中引發(fā)倫理風(fēng)險(xiǎn)時(shí),如何界定AI與人的邊界、如何與AI定契約至關(guān)重要。他提出AI倫理邊界的劃分,將不再像以往的倫理道德那樣局限在人與人之間,現(xiàn)在則多出了一些維度,還涉及到人與AI、AI與AI之間的倫理邊界問題。這對(duì)我們來說是全新的思考領(lǐng)域。他同時(shí)還指出,我們?cè)谂cAI制定契約時(shí),需要遵循三大最基本的原則:可執(zhí)行、可驗(yàn)證和可執(zhí)法。作為引導(dǎo)發(fā)言,鄧小鐵教授還提出了在與AI交互過程中存在的四個(gè)問題:
Code is law。如果代碼就是王道,那么我們應(yīng)該建立怎樣一種程序來監(jiān)管編程人員呢?
誰能代表AI定契約?是AI的制造者,還是AI自身?
AI倫理設(shè)計(jì)的不可能三角。在AI涉及倫理時(shí),人類的機(jī)制如何設(shè)計(jì)、AI如何執(zhí)行、市場(chǎng)如何接受?
能否允許AI來制造AI?這個(gè)時(shí)候人類是否還有能力對(duì)AI實(shí)施管理和監(jiān)測(cè)?
但緊接著一位來自中南大學(xué)的教授便指出鄧教授的思考中存在一個(gè)漏洞,即事實(shí)上我們整個(gè)學(xué)界對(duì)“智能”這個(gè)詞是什么一直并沒有搞清楚,因此也不可能搞清楚人工智能是什么,只有當(dāng)我們真正弄清“智能”的概念,知道了智能和人類的局限分別是什么,我們才有可能去討論AI和人類的倫理問題,或者權(quán)利和義務(wù)問題。在辯論中,幾位哲學(xué)領(lǐng)域或法律界的人士分別指出了AI倫理邊界的以下幾個(gè)特點(diǎn):
倫理的時(shí)代屬性。北京大學(xué)副教授吳天岳指出,任何倫理道德都是有時(shí)代烙印的,因此盡管目前已經(jīng)有諸多原則,但我們還需要有歷史意識(shí)和前瞻意識(shí),以避免我們自己的道德偏見阻礙了未來人類的發(fā)展。
道德的邊界應(yīng)該是動(dòng)態(tài)的。天津理工大學(xué)羅訓(xùn)教授認(rèn)為任何治理原則都是不可能是一旦制定永不改變,因?yàn)閭惱碛肋h(yuǎn)在隨著時(shí)代和地域而變化,因此關(guān)于AI倫理應(yīng)當(dāng)是動(dòng)態(tài)的,不應(yīng)當(dāng)去靜態(tài)地刻畫。
AI倫理中人的屬性不可忽視?,F(xiàn)有的AI仍然不是一個(gè)道德主體,所以目前所討論的道德邊界主要還是針對(duì)人類行為邊界的界定。
二、人工智能倫理原則
中科院自動(dòng)化所研究員曾毅作為第二個(gè)引導(dǎo)發(fā)言者,介紹了當(dāng)前國內(nèi)外在人工智能原則上的進(jìn)展,并針對(duì)各國人工智能倫理原則進(jìn)行了詳細(xì)分析。
據(jù)曾毅研究員介紹,目前全世界范圍內(nèi)已經(jīng)發(fā)布的人工智能倫理原則至少有53個(gè),但這些原則沒有一個(gè)可以覆蓋當(dāng)前人工智能技術(shù)所帶來的所有問題。以比較全面的《人工智能北京共識(shí)》為例,對(duì)于“致命武器”、“公平”等并沒有涵蓋,原因則在于發(fā)布者的立場(chǎng)和視角不同,面對(duì)的社會(huì)問題也不同。
當(dāng)然,盡管目前已經(jīng)有如此多的AI倫理原則,甚至包括一些企業(yè)(例如谷歌、微軟等)都制定了約束自身的倫理原則,但大多數(shù)倫理原則并沒有得到很好的執(zhí)行,或者可以說至今為止沒有一家企業(yè)不會(huì)觸犯原則。例如尊重隱私這條,當(dāng)用戶要求刪除數(shù)據(jù)時(shí),雖然數(shù)據(jù)本身可以刪除,但由于當(dāng)前AI技術(shù)的限制,已經(jīng)訓(xùn)練的模型仍然包含原有數(shù)據(jù)訓(xùn)練的結(jié)果,這種痕跡很難在機(jī)器學(xué)習(xí)模型中得以抹除。
曾毅還指出當(dāng)前AI倫理原則所面臨的一個(gè)問題,即當(dāng)前人工智能主要的目標(biāo)還仍然是推動(dòng)經(jīng)濟(jì)發(fā)展,而卻沒有對(duì)“AI對(duì)社會(huì)及生態(tài)影響”給予足夠的重視。因此他提出,人工智能倫理的問題,并不僅僅是有多少領(lǐng)域的專家參與這個(gè)問題的討論,更重要的是要讓足夠多的人重視這個(gè)問題,并參與其中。
針對(duì)AI倫理原則(甚至未來可能的法律),一位與會(huì)的學(xué)者提出,如何才能做到技術(shù)監(jiān)管不會(huì)限制了人工智能的發(fā)展。北京大學(xué)黃鐵軍教授從更為廣闊的角度回答了這個(gè)問題。我們作為人類,思考AI倫理不可避免地會(huì)站在人類視角,秉持以人為中心的觀念。黃鐵軍教授指出,目前我們所指的人工智能事實(shí)上是嵌入在人類社會(huì)的一種形態(tài),人工智能開發(fā)遵循人類整體基本的道德共識(shí)。但機(jī)器智能超越人類智能,這是一個(gè)未來進(jìn)化的趨勢(shì)??萍紕?chuàng)新和發(fā)展不應(yīng)被人類自身的局限性而限制,對(duì)人工智能的發(fā)展我們應(yīng)持有一個(gè)更開放的心態(tài)來對(duì)待。
三、AI 倫理監(jiān)管
面對(duì)AI的倫理原則,一項(xiàng)很重要的事情便是,如何確保人類(個(gè)人或組織)、AI遵守相應(yīng)的倫理原則?
吳天岳教授認(rèn)為,針對(duì)AI開發(fā)者,職業(yè)道德和職業(yè)倫理非常重要。技術(shù)作為一種手段,它服務(wù)于某種特定目的,因此為了防止人為的AI作惡,必須要強(qiáng)化AI開發(fā)者的倫理意識(shí),從源頭來遏制AI技術(shù)所帶來的風(fēng)險(xiǎn),而不能僅僅是在產(chǎn)品出來之后進(jìn)行監(jiān)管。這包括幾個(gè)方面,首先是算法層面要做到可解釋性、透明性;其次數(shù)據(jù)方面要確保均衡性和非歧視性;作為工具,要對(duì)算法進(jìn)行專屬測(cè)試。吳天岳教授強(qiáng)調(diào),作為AI開發(fā)者必須要意識(shí)到,AI技術(shù)的實(shí)現(xiàn)是為了一系列人類核心道德價(jià)值服務(wù),而不僅僅是為資本和權(quán)利服務(wù)。他舉了2018年谷歌全體員工署名反對(duì)谷歌與美國軍方合作的例子。
另一方面,除了自我約束外,吳天岳教授認(rèn)為還需要外部監(jiān)管。這便需要設(shè)置所謂“倫理委員會(huì)”。目前各大企業(yè)紛紛宣布成立內(nèi)部的倫理委員會(huì)或類似職能組織進(jìn)行監(jiān)管。但針對(duì)“倫理委員會(huì)”是否真正能夠起到作用不同學(xué)者抱有不同的看法。例如前面我們提到,目前幾乎沒有一家公司能夠真正按照自己的倫理原則行事,或多或少都會(huì)觸犯。曾毅指出,事實(shí)上一家公司能夠真正做到所有原則中的80%已經(jīng)很不錯(cuò)了。平安集團(tuán)首席科學(xué)家肖京強(qiáng)調(diào),“外部監(jiān)管在制定一系列約束的同事,若能為企業(yè)提供更好地幫組,引導(dǎo)企業(yè)如何在保證‘活下去’的基本要求下,合理地進(jìn)行AI技術(shù)開發(fā),就可以協(xié)同共贏”。
立法是劃清紅線的手段。但其中也存在諸多問題,1)嚴(yán)格的法律是否限制了人工智能的發(fā)展? 2)法律應(yīng)該在發(fā)展的何種階段介入?舉例來講,目前我國在數(shù)據(jù)隱私保護(hù)方面的法律約束,相對(duì)于西方?jīng)]有那么嚴(yán)格,這也成為我國能夠在人工智能時(shí)代迅速占領(lǐng)高位的一個(gè)重要因素。一旦我們針對(duì)數(shù)據(jù)隱私做出嚴(yán)格的限制,可以想象必將極大地約束技術(shù)的發(fā)展。
四、科技向善
科技是一種能力,向善是一種選擇。科技的發(fā)展必須要服務(wù)于人類社會(huì)的進(jìn)步與發(fā)展,才能成為科技的進(jìn)步。以核能為例,它可以用來制造原子彈,但也可以用來作為核能發(fā)電,只有當(dāng)將這種力量用來為人類整體服務(wù)時(shí),它才能夠被稱為科技的進(jìn)步。
騰訊公司副總裁王巨宏指出,在過去二十年里,整個(gè)世界(特別是中國)經(jīng)歷了PC互聯(lián)網(wǎng)時(shí)代、移動(dòng)互聯(lián)網(wǎng)時(shí)代,這在極大程度上顛覆了整個(gè)社會(huì),而下一輪以AI、大數(shù)據(jù)、生命科學(xué)等為代表的科技浪潮正在形成、疊加,逐步構(gòu)建成新的數(shù)字時(shí)代。作為科技公司,不僅僅是技術(shù)發(fā)展的推動(dòng)者、科技時(shí)代的受益者,更重要的則是要有能力和義務(wù)去面對(duì)科技所帶來的社會(huì)問題,用科技去解決社會(huì)問題,創(chuàng)造更多有益的社會(huì)價(jià)值。例如騰訊在人工智能的開發(fā)中提出并倡導(dǎo)“四可”理念(可知、可控、可用、可靠),并從技術(shù)和實(shí)踐的層面去踐行“科技向善”的理念。雷鋒網(wǎng)報(bào)道。
來源:雷鋒網(wǎng)