關(guān)于人工智能的法律權(quán)益,你怎么看?
人工智能可以對人的意識、思維的信息過程的模擬。人工智能不是人的智能,但能像人那樣思考、也可能超過人的智能。人工智能是一門極富挑戰(zhàn)性的科學(xué),從事這項工作的人必須懂得計算機知識,心理學(xué)和哲學(xué)。人工智能是包括十分廣泛的科學(xué),它由不同的領(lǐng)域組成,如機器學(xué)習(xí),計算機視覺等等,總的說來,人工智能研究的一個主要目標(biāo)是使機器能夠勝任一些通常需要人類智能才能完成的復(fù)雜工作。但不同的時代、不同的人對這種“復(fù)雜工作”的理解是不同的。我們現(xiàn)在是否也需要思考AI的權(quán)利了呢?
你必須爭取的AI權(quán)利
大家都已經(jīng)清楚地知道,人工智能機器在復(fù)制人腦的道路上走得越來越遠(yuǎn)。從某種程度上講,我們目前的人工神經(jīng)網(wǎng)絡(luò)所擁有的神經(jīng)元比蜜蜂和蟑螂等生物還要多,而且數(shù)量在不斷增加。
而最大型的項目旨在創(chuàng)造更多的生物合成算法,目的是復(fù)制人類大腦的運作方式,而不只是簡單地模仿我們的記憶方式。此外,還有一些項目旨在將人類意識轉(zhuǎn)化為機器形態(tài),或者類似于所謂的“OpenWorm”項目,這一項目旨在為微小的雌雄雙性線蟲構(gòu)造出人類的神經(jīng)連接體(即中樞神經(jīng)系統(tǒng)的連接圖),而這是人類迄今所能完成的唯一一幅完整的神經(jīng)連接體。
在2016年進(jìn)行的一項調(diào)查中,175名行業(yè)專家中有90%的人認(rèn)為,到2075年,人工智能可以達(dá)到與人類對等的水平。
在我們達(dá)到這個水平之前,隨著人工智能逐漸超越動物智能,我們將不得不開始思考,人工智能的權(quán)利與我們給動物定義的“權(quán)利”之間有什么關(guān)系。想象一下,強迫智能電梯上下移動的行為可能是很殘忍的。幾年前,英國科技作家比爾·湯普森曾寫道,人們在開發(fā)AI產(chǎn)品時總是傾向于不傷害到自己,“這反映出人們總是認(rèn)為人工智能是為人類服務(wù)的,而不具有獨立的思維。”
然而,我們現(xiàn)在所面臨的最緊迫的問題關(guān)乎到人工智能是否具有合法權(quán)利。簡單地說,我們是否應(yīng)該考慮授予它們某種形式的法律人格呢?這并不像聽起來那么荒謬,也不代表在我們的社會中AI已經(jīng)“上升到了”某種特定的地位。但是這反映了目前AI在我們的生活中扮演的并且將繼續(xù)發(fā)揮作用的角色。
非智能律師時代的智能工具
目前,我們的法律體系在很大程度上假定我們面對的是一個充斥著非智能工具的世界。我們可能會談?wù)摌屩Ч苤频闹匾?,但我們?nèi)匀粫卸ǔ謽寕说哪莻€人有罪,而不是槍支本身。如果這把槍本身是有缺陷的,那么我們就會追究制造槍支的公司的責(zé)任。
到目前為止,這種思維模式在很大程度上被直接運用到了人工智能和機器人的世界。1984年,一家名為AthloneIndustries的美國公司的所有者被告上了法庭,因為人們認(rèn)為他們的擊球訓(xùn)練機器太過殘暴。該案之所以值得提起,是因為法官宣布訴訟是針對Athlone公司,而非擊球機器人,因為“機器人不能被起訴”。
2009年,一名英國司機在他的GPS系統(tǒng)指示下沿著一條狹窄的懸崖邊行駛,結(jié)果導(dǎo)致他被困,不得不被警察拖回主路。盡管他將問題歸咎于技術(shù),但法院認(rèn)定他犯有疏忽大意的錯誤。
然而,今天(當(dāng)然也包括未來)的人工智能技術(shù)和昨日的科學(xué)技術(shù)之間存在著太多差異。像自動駕駛汽車或機器人這樣的智能設(shè)備不僅會被人類使用,而且會被支配——當(dāng)然,之后它們會獨立完成指令。智能設(shè)備能夠運用機器學(xué)習(xí)算法,自行收集和分析信息,然后做出決定。這也不能完全責(zé)怪技術(shù)的創(chuàng)造者。
正如華盛頓喬治城大學(xué)的法學(xué)教授大衛(wèi)·維拉德克所指出的,在這一領(lǐng)域少數(shù)的深入案例研究中,有大量的個人和公司參與了人工資能組件的設(shè)計、修改和整合,因此很難確定誰來負(fù)最終的責(zé)任。當(dāng)談?wù)撊斯ぶ悄艿?ldquo;黑匣子”時,這個系統(tǒng)是非常難以捉摸的。
大衛(wèi)·維拉德克曾寫道:“一些組件可能是在人工智能項目還沒被構(gòu)思出來之前就已經(jīng)被設(shè)計出來了,而組件的設(shè)計者們可能從來沒有想過,他們的設(shè)計會被納入任何人工智能系統(tǒng),更不用說那些造成傷害的人工智能系統(tǒng)了。”在這種情況下,如果把責(zé)任歸咎于一個并沒有參與到人工智能系統(tǒng)的完成和操作過程中的組件設(shè)計者,聽起來并不公平。法院可能難以判定,這樣一個組件的設(shè)計者是否預(yù)見到了所發(fā)生的危害。
公司所扮演的角色
賦予人工智能一個法律上的實體地位并不是完全沒有先例的。公司長期以來扮演著這樣的角色,這就是為什么公司可以擁有資產(chǎn),或者被起訴,而這些事情不必須以首席執(zhí)行官或執(zhí)行董事的名義來完成。
佛羅里達(dá)州立大學(xué)的法學(xué)教授肖恩·拜恩指出,盡管還沒有經(jīng)過檢驗,但人工智能可能已經(jīng)擁有了這種地位,因為AI可以管理有限責(zé)任公司,所以可以擁有法律上的獨立地位。如果像比爾·蓋茨的“機器人稅”這樣的提案在法律層面上被認(rèn)真對待,那么稅收層面的因素也需要被考慮進(jìn)來。
然而,爭議仍然存在。如果人工智能能以某種方式執(zhí)行一些責(zé)任不明晰的行為,那么它的創(chuàng)造者可能就會借此擺脫責(zé)任。而且,這也可能會使AI工具的研發(fā)人員消極怠工——因為AI表現(xiàn)不符合預(yù)期時,他們就有理由不再進(jìn)行進(jìn)一步開發(fā)。
目前也沒有辦法懲罰人工智能,因為像監(jiān)禁或死刑這樣的懲罰對人工智能來說毫無意義。
愛爾蘭國立大學(xué)的法學(xué)教授約翰·丹納赫關(guān)于人工智能法律人格的看法是:“我不認(rèn)為這是一件正確的事,至少現(xiàn)在不是。”“我的猜測是,在可預(yù)見的未來,這種做法主要是為了推卸人類的責(zé)任,來掩蓋一些反社會活動。”
然而,這個領(lǐng)域并不依賴于任何以主觀意識為目標(biāo)的基準(zhǔn)。
《人類簡史》和《未來簡史》的作者尤瓦爾·赫拉利說,“在今天,公司擁有合法的權(quán)利而且被視為法人,但大多數(shù)動物都沒有。”“盡管企業(yè)顯然沒有意識,沒有人格,沒有體驗幸福和痛苦的能力。而動物則是有意識的實體。不管人工智能是否發(fā)展出了意識,都可以有經(jīng)濟、政治和法律上的理由賦予它人格和權(quán)利,就像企業(yè)可以獲得法律人格和權(quán)利一樣。事實上,人工智能將來可能會主導(dǎo)某些公司、組織甚至國家??苹眯≌f中很少提及到這種情況,但我認(rèn)為它比《西部世界》和《蘋果核戰(zhàn)記》中的故事更有可能發(fā)生。”
不再是科幻小說
目前,這些話題仍然是科幻小說的主題,但正如尤瓦爾·赫拉利指出的那樣,這種狀態(tài)可能不會長期保持下去?;贏I在現(xiàn)實世界的使用以及它們與人類的關(guān)系,像“人工智能導(dǎo)致有人死亡時亡誰來負(fù)責(zé)”,或者“一個人能否跟他的人工智能助手結(jié)婚”這樣的問題就需要在將來的生活中被解決。
約翰·丹納赫說,“給任何實體賦予法律人格的決定,基本上都可以簡單地分為兩個子問題。這個實體是否應(yīng)該被當(dāng)作道德主體來對待,它應(yīng)該對自己的行為負(fù)責(zé)嗎?另一個問題是,這個實體是否應(yīng)該被當(dāng)作一個道德客體來對待,從而受到保護,免受某些干擾和以及對其完整性的侵害呢?我的觀點是,AI不應(yīng)該被當(dāng)作道德主體,至少暫時不會。但我認(rèn)為,在某些情況下,它們應(yīng)該被視為道德客體。我認(rèn)為,人們可以在很大程度上依賴人工智能伴侶,因此,在很多情況下,改編或破壞這些實體是錯誤的行為。這意味著我們可能要對AI負(fù)責(zé),而不能破壞或者侵犯它們的完整性。”
換句話說,當(dāng)涉及到人工智能工具時,我們不應(yīng)該允許企業(yè)逃避責(zé)任。隨著人工智能系統(tǒng)從自動駕駛汽車、金融交易員、無人駕駛飛機和機器人等各種領(lǐng)域進(jìn)入現(xiàn)實世界,至關(guān)重要的一點是,有人要為他們所做的事情負(fù)責(zé)。
同樣,將人工智能和人類的關(guān)系與先前的非智能技術(shù)視為同等性質(zhì)也是錯誤的。
這關(guān)乎一個學(xué)習(xí)曲線。而且即便我們在技術(shù)上還沒有達(dá)到擔(dān)心AI主權(quán)的階段,這并不意味著這是一個錯誤的問題。所以當(dāng)Siri沒有聽清楚你的問題并詢問是否搜索網(wǎng)頁時,不要再對它大喊大叫了,好嗎?