人工智能的異軍突起將這樣的案件帶入公共視野,也為當(dāng)前的法律法規(guī)、倫理規(guī)范和政策體系帶來(lái)不小的考驗(yàn):
“人工智能的載體究竟是不是法律主體?”
這樣的問(wèn)題在斯坦福大學(xué)新開(kāi)設(shè)的一門法律和計(jì)算機(jī)科學(xué)交叉的課程上激起了熱烈討論。如果不是法律主體,那么當(dāng)人工智能載體觸犯他人利益、造成社會(huì)損失時(shí),究竟應(yīng)該由研發(fā)者、運(yùn)營(yíng)者還是使用者承擔(dān)責(zé)任呢?如果是法律主體,那么又該如何為這些“人工智能”定罪量刑呢?
今天小探就帶你一起看看,在人工智能沖擊傳統(tǒng)法律、公共政策的當(dāng)下,斯坦福大學(xué)的教育專家和法律人士都在做些什么努力。
AI制定政策?聯(lián)邦政府早已啟動(dòng)
不要以為人工智能只是科技公司的專利。事實(shí)上,近年來(lái)美國(guó)聯(lián)邦政府已經(jīng)開(kāi)始考慮使用機(jī)器學(xué)習(xí)和人工智能相關(guān)技術(shù)幫助公共政策的制定。
美國(guó)環(huán)保署(EPA)管理殺蟲劑的例子就很好體現(xiàn)了算法分析和法律相互作用的微妙形式。
過(guò)去,美國(guó)環(huán)保署對(duì)殺蟲劑的毒性檢測(cè)很大程度上取決于動(dòng)物對(duì)化學(xué)藥物的反應(yīng)。但面對(duì)超過(guò)80000種待檢測(cè)化學(xué)藥物的壓力,這種方法被普遍評(píng)價(jià)為緩慢、昂貴、又不人道。
后來(lái),美國(guó)環(huán)保署開(kāi)始大量收集數(shù)據(jù),并引進(jìn)不同計(jì)算方法來(lái)規(guī)范化學(xué)毒性檢查。它建立了一個(gè)聚合計(jì)算毒理學(xué)資源庫(kù)(Aggregated Computational Toxicology Resource),根據(jù)各種公共資源整合的關(guān)系型數(shù)據(jù)庫(kù),用以支持?jǐn)?shù)據(jù)挖掘和建模?!谒惴ㄅc神經(jīng)網(wǎng)絡(luò)對(duì)數(shù)據(jù)的分析中去尋找決策新思路。
當(dāng)人工智能介入法律決策,美國(guó)的殘疾索賠程序也開(kāi)始發(fā)生變化。
2013年以來(lái),為了減少工作人員審理紙質(zhì)文件的負(fù)擔(dān),并提高案件決策一致性,美國(guó)退伍軍人事務(wù)部推出了一套計(jì)算機(jī)案件管理系統(tǒng),用于處理退伍軍人的殘疾索賠。
據(jù)報(bào)道,該系統(tǒng)可以根據(jù)索賠人(自我報(bào)告)的調(diào)查問(wèn)卷,從0-100%自動(dòng)評(píng)估不同退伍軍人的殘疾程度。目前這套軟件使用的是IBM Watson 的人工智能程序,從退伍軍人的電子醫(yī)療記錄中進(jìn)行數(shù)據(jù)篩選。
科技巨頭,政府?dāng)?shù)字化改革的合伙人?
今年2月,特朗普簽署了一項(xiàng)推廣人工智能的新行政命令,再次將人工智能升級(jí)為國(guó)之重策。然而目前除了軍事部門,大部分聯(lián)邦機(jī)構(gòu)的技術(shù)更新依舊緩緩慢,高技術(shù)人才也相對(duì)緊缺。哪里高級(jí)人才多?當(dāng)然要屬硅谷的科技巨頭們了。
那么,處于技術(shù)前沿的科技公司又在聯(lián)邦政府的技術(shù)升級(jí)中擔(dān)任什么角色呢?
像IBM等科技巨頭跟政府已在人工智能領(lǐng)域有多個(gè)合作項(xiàng)目:
美國(guó)海軍陸戰(zhàn)隊(duì)正在使用Watson的人工智能設(shè)備來(lái)診斷軍用車輛的性能,并將自然語(yǔ)言處理和數(shù)據(jù)科學(xué)——例如IBM的SPSS統(tǒng)計(jì)軟件和Watson Explorer——應(yīng)用于人員的組織和部署。在不久前,這些大部分計(jì)劃和日程安排都是通過(guò)電子表格完成的。
除了技術(shù)上的支持,科技公司也會(huì)在核心科技的政策、監(jiān)管、應(yīng)用前景方面與政府交換意見(jiàn)。
今年2月,谷歌便向美國(guó)政府提出了一份長(zhǎng)達(dá)34頁(yè)的《關(guān)于人工智能管理的意見(jiàn)》(PerspecTIve on Issues in AI Governance),呼吁政府和社會(huì)、工業(yè)界就人工智能的可解釋性標(biāo)準(zhǔn)、公平性評(píng)估、安全考慮和責(zé)任框架等方面進(jìn)行合作。
谷歌建議,要像歐洲的電子產(chǎn)品在銷售前需經(jīng)過(guò)CE認(rèn)證一樣,美國(guó)政府也應(yīng)為人工智能創(chuàng)建類似的安全指標(biāo)?!袄纾槍?duì)智能鎖當(dāng)中的生物識(shí)別技術(shù),就應(yīng)在使用前測(cè)試它的準(zhǔn)確度是否達(dá)標(biāo)?!惫雀璧男屡d技術(shù)全球政策負(fù)責(zé)人Charina Chou表示。
盡管不少科技巨頭都與政府在技術(shù)方面的合作項(xiàng)目,但如果這些項(xiàng)目有涉及侵犯隱私、違背倫理的風(fēng)險(xiǎn)呢?
還記得谷歌和美國(guó)國(guó)防部合作的Maven項(xiàng)目嗎?這個(gè)去年3月被爆出后鬧得沸沸揚(yáng)揚(yáng)的項(xiàng)目,是谷歌把人工智能技術(shù)用于分析無(wú)人機(jī)鏡頭當(dāng)中,幫助無(wú)人機(jī)更好地從移動(dòng)或靜止圖像中自動(dòng)追蹤感興趣對(duì)象,從而提高打擊精準(zhǔn)度。這些無(wú)人機(jī)可能會(huì)參與到美國(guó)對(duì)阿富汗、巴勒斯坦、也門等國(guó)的空襲當(dāng)中。
很快,超過(guò)4000名谷歌員工簽署了一份反對(duì)“Maven”項(xiàng)目的請(qǐng)?jiān)笗?,他們?cè)凇都~約時(shí)報(bào)》刊登了整版廣告,并導(dǎo)致了數(shù)十名員工辭職。最終,去年6月,谷歌松口了。表示將在今年3月到期后,不再與國(guó)防部續(xù)約合作。
450多名亞馬遜員工也在近日公開(kāi)致信貝索斯,希望公司停止與美國(guó)國(guó)防部和執(zhí)法系統(tǒng)就面部識(shí)別軟件 RekogniTIon 合作的項(xiàng)目。他們擔(dān)憂的地方在于,執(zhí)法部門在沒(méi)有公眾監(jiān)督、社會(huì)問(wèn)責(zé)和亞馬遜限制的情況下使用這些技術(shù),很可能造成對(duì)人權(quán)的侵犯。
然而,貝索斯表示,公司將持續(xù)和國(guó)防部合作,“如果大科技公司都拒絕了國(guó)防部,那么這個(gè)國(guó)家會(huì)陷入麻煩……這是我們?cè)撟龅氖虑?,就算它不受歡迎。”
人工智能與行政結(jié)合的優(yōu)勢(shì)與擔(dān)憂
到底人工智能對(duì)政府績(jī)效的改善有哪些優(yōu)點(diǎn)?主要有三點(diǎn)難以抗拒的優(yōu)勢(shì)。
第一是效率。以較低成本完成大量重復(fù)性事件。另一方面,機(jī)器能在排除個(gè)人因素干擾的前提下進(jìn)行數(shù)據(jù)分析和結(jié)果預(yù)測(cè)。決策者可能表現(xiàn)出種族偏見(jiàn),可能過(guò)分地或不足地衡量某一信息的重要性,或者可能對(duì)所處情況的預(yù)設(shè)過(guò)于天真。對(duì)人為意志的排除使機(jī)器做出的決策有天然的說(shuō)服力。
最重要的是,通過(guò)與大數(shù)據(jù)的連接,計(jì)算機(jī)程序能幫政府官員分析信息,并對(duì)潛在的戰(zhàn)略性行為做出反應(yīng)。
然而,提升行政效率帶來(lái)的同時(shí),使用機(jī)器辦公的規(guī)范性問(wèn)題也被提上日程。
近期,加州最高法院大法官M(fèi)ariano-FlorenTIno Cuéllar就在其著作《人工智能與行政國(guó)家》(ArTIficial Intelligence and the Administrative State)中,提出了四點(diǎn)對(duì)決策過(guò)程中使用人工智能代理的擔(dān)憂。
首先,政府是否該依賴計(jì)算機(jī)程序做出某項(xiàng)決策?大法官認(rèn)為,這取決于決策目標(biāo)的社會(huì)爭(zhēng)議性。當(dāng)前,立法者常針對(duì)是否該做出某項(xiàng)行政決定(如實(shí)施經(jīng)濟(jì)制裁)以及該決定會(huì)在不同層面導(dǎo)致的后果進(jìn)行大量的辯論,人工智能將如何統(tǒng)籌政治博弈中的各方利益?這將是個(gè)不小的挑戰(zhàn)。
第二點(diǎn)擔(dān)憂和爭(zhēng)議來(lái)自人工智能所謂的“機(jī)械理性”。由于在由算法主導(dǎo)的行政決策占越來(lái)越重要的位置,但機(jī)器減少人為因素干擾的同時(shí),是否應(yīng)該反思,那些所謂的“偏見(jiàn)”和“情感因素”是否都沒(méi)有價(jià)值?一些可能被機(jī)器排除的“偏見(jiàn)”例如對(duì)弱者的同情,或許也同樣值得關(guān)注。
第三,網(wǎng)絡(luò)安全風(fēng)險(xiǎn)及其他不利影響。當(dāng)行政越來(lái)越依賴數(shù)據(jù)收集和計(jì)算機(jī)程序,這可能帶來(lái)更高的效率,也同時(shí)意味著受網(wǎng)絡(luò)安全威脅的影響更大。
最后,如何向公眾解釋決策過(guò)程將遇到困難。試想一下,民主治理的內(nèi)涵是通過(guò)對(duì)話和交流,每一種聲音都有被決策者或公眾理解、接受或拒絕的機(jī)會(huì)。除非人工智能的決策機(jī)制能依賴相對(duì)簡(jiǎn)單透明的結(jié)構(gòu),否則向公眾提供決策如何產(chǎn)生的理由時(shí),決策機(jī)構(gòu)將會(huì)遇到相當(dāng)?shù)睦щy。
斯坦福法律課上的頭腦風(fēng)暴
面對(duì)這些擔(dān)憂,身處硅谷中心的斯坦福大學(xué)已開(kāi)始促成從學(xué)術(shù)研究到業(yè)界層面的合作:從2019年起,斯坦福大學(xué)政策研究中心新開(kāi)設(shè)一門法律和計(jì)算機(jī)科學(xué)交叉的課程“算法管理:在規(guī)制型國(guó)家中的人工智能”。(Administering by Algorithm: Artificial Intelligence in the Regulatory State)
這門課程由斯坦福法學(xué)院教授David Freeman Engstrom、Daniel E. Ho,和加州最高法院大法官M(fèi)ariano-Florentino Cuéllar共同教授,并邀請(qǐng)了25位律師、計(jì)算機(jī)科學(xué)家和算法工程師來(lái)和大家共同探討政府機(jī)構(gòu)的技術(shù)研發(fā)和應(yīng)用。
從左至右:斯坦福法學(xué)院教授Daniel E. Ho,David Freeman Engstrom和加州最高法院大法官M(fèi)ariano-Florentino Cuéllar
“我們現(xiàn)在面臨著專業(yè)技術(shù)和認(rèn)知上的不匹配。一方面在法律判決中我們需要法律機(jī)構(gòu)能解釋做出這樣決策的原因,另一方面,人工智能和機(jī)器學(xué)習(xí)的工作機(jī)制尚未完全透明,”斯坦福法學(xué)院教授David Freeman Engstrom說(shuō)道。
課堂的學(xué)生來(lái)自計(jì)算機(jī)科學(xué)、法律、政治、哲學(xué)等多個(gè)專業(yè)背景,需要通過(guò)團(tuán)隊(duì)合作,完成三部分任務(wù)。
首先,團(tuán)隊(duì)對(duì)100個(gè)最重要的聯(lián)邦機(jī)構(gòu)進(jìn)行調(diào)查。當(dāng)發(fā)現(xiàn)有算法參與決策的例子時(shí),學(xué)生們開(kāi)始測(cè)評(píng)這項(xiàng)技術(shù)具體歸屬哪一類:是屬于人工智能,還是機(jī)器學(xué)習(xí),還是一些其他的基礎(chǔ)技術(shù)?
第二步,學(xué)生集體評(píng)估近期或中期政府機(jī)構(gòu)中最可能部署人工智能的環(huán)節(jié)。
最后,轉(zhuǎn)向規(guī)范性問(wèn)題探討:思考使用人工智能執(zhí)行監(jiān)管任務(wù)帶來(lái)的法律、政策分析和哲學(xué)層面的挑戰(zhàn)。例如,如何解決諸多程序性權(quán)利面臨被機(jī)器行政架空的威脅等。
課程結(jié)束后,學(xué)生將完成一份報(bào)告,探討行政機(jī)構(gòu)在不同層面該如何應(yīng)用人工智能技術(shù)。該報(bào)告將提交到無(wú)黨派獨(dú)立機(jī)構(gòu)美國(guó)行政會(huì)議(Administrative Conference of the United States),并有望影響未來(lái)行政機(jī)構(gòu)的政策。