無(wú)人駕駛有這樣一個(gè)倫理問(wèn)題
Google的無(wú)人駕駛汽車(chē)已經(jīng)發(fā)生了很多事故,前幾天,Google披露在7月1日的一次測(cè)試中,一輛經(jīng)過(guò)Google改裝的雷克薩斯SUV在加州山景城遭到追尾,車(chē)上的3名Google員工受了輕微的皮外傷。然而無(wú)一例外,這些事故的原因都不是Google無(wú)人駕駛汽車(chē)自己的問(wèn)題,至少Google一直堅(jiān)持這么說(shuō);畢竟這些事故中有很多都是Google的無(wú)人駕駛汽車(chē)被追尾導(dǎo)致的。
那么為什么Google的無(wú)人駕駛汽車(chē)不能在追尾即將發(fā)生時(shí)進(jìn)行變道而避免事故發(fā)生呢?
事實(shí)上,他們可以辦到這一點(diǎn),但是在這么做之前,他們還有一些道德上和法律上的問(wèn)題需要解決。
汽車(chē)防撞的技術(shù)一直都存在,不管對(duì)方是另一輛汽車(chē),還是一個(gè)行人或者其它物體,裝備這項(xiàng)技術(shù)的汽車(chē)應(yīng)該都能對(duì)可能發(fā)生的撞擊采取措施而進(jìn)行規(guī)避。到目前為止,這項(xiàng)技術(shù)都還只用到防止前方撞擊上,但理論上,這些技術(shù)也可以用在防止追尾上,但首先,還需要考慮以下的問(wèn)題:
可能的事故場(chǎng)景
想象一下你的自動(dòng)駕駛汽車(chē)停在路口等待著你前面的行人過(guò)馬路,這時(shí)候,你的車(chē)子發(fā)現(xiàn)后面有另一輛卡車(chē)沖過(guò)來(lái)了,看起來(lái)無(wú)可避免地要發(fā)生追尾事故了,但是你坐在前排座位上,這樣的事故只會(huì)給你帶來(lái)一點(diǎn)小傷——至少不會(huì)致命。如果你的汽車(chē)具備規(guī)避程序,那么你的汽車(chē)應(yīng)該怎么做呢?如果你的車(chē)子可以立馬躲開(kāi),移到旁邊的車(chē)道去,那么這輛卡車(chē)就會(huì)沖進(jìn)路口,碾壓行人。
那么這樣的自動(dòng)駕駛程序是合情合理的嗎?在大部分的追尾事故中,這樣的規(guī)避也許無(wú)可厚非,但是在類(lèi)似于這種情況的特殊情況(其實(shí)并不罕見(jiàn))下,讓自己受一點(diǎn)小傷還是拱手送上無(wú)辜行人的性命,選擇顯而易見(jiàn)。
因?yàn)椋@個(gè)時(shí)候可以認(rèn)為你(或你的車(chē))應(yīng)該對(duì)被無(wú)辜碾壓的行人負(fù)責(zé),因?yàn)檎悄?或你的車(chē))的規(guī)避動(dòng)作導(dǎo)致了這一事故的發(fā)生。由此帶來(lái)的道德和法律后果就需要你(或車(chē)輛負(fù)責(zé)人)承擔(dān)。
這樣的狀況可能在今天的汽車(chē)駕駛中也會(huì)出現(xiàn),在發(fā)生事故時(shí),你可能本能地保護(hù)自己而給別人造成傷害??雌饋?lái)和無(wú)人駕駛汽車(chē)造成的后果一樣,但是人類(lèi)不是全然理性的生物,在遇到緊急狀況時(shí)并不能做出理智的決定——人類(lèi)會(huì)感到驚慌。然而無(wú)人駕駛的機(jī)器就不一樣了,它的決定都來(lái)自于經(jīng)過(guò)了深思熟慮之后的程序和算法,由此帶來(lái)的后果就不太容易讓人原諒。而且如果是程序員故意設(shè)置這樣的程序,那么甚至可以將這種事故定義為“蓄意謀殺”,即使是考慮不周,也可能被定義為“重大過(guò)失”。
不管哪種可能,對(duì)程序員和開(kāi)發(fā)者來(lái)說(shuō)都是難逃法律干系的。當(dāng)科技公司用機(jī)器來(lái)取代人做決定的時(shí)候,也就給自己帶來(lái)了新的責(zé)任和義務(wù)。
道德困境
但是別急,這樣的問(wèn)題難道在前端碰撞時(shí)就不存在嗎?后端碰撞有什么不同?
其中最大的不同之處在于,追尾發(fā)生的時(shí)候,責(zé)任通常是在后車(chē)——通常是因?yàn)楹筌?chē)跟車(chē)太緊,沒(méi)法對(duì)前車(chē)的動(dòng)作做出及時(shí)的反應(yīng);或者后車(chē)駕駛員分心了。所以對(duì)于無(wú)人駕駛汽車(chē)而言,被追尾是沒(méi)有法律責(zé)任的。而如果無(wú)人駕駛汽車(chē)在行進(jìn)過(guò)程中發(fā)現(xiàn)了前方車(chē)輛,那么它就有責(zé)任進(jìn)行規(guī)避,避免可能發(fā)生的事故。
在無(wú)人駕駛引起的倫理問(wèn)題上,這兩種情況也是不同的。這個(gè)問(wèn)題有一個(gè)被稱(chēng)為“電車(chē)難題”的通用版本,由哲學(xué)家Phillipa Foot和Judith Jarvis Thomson提出,在這種情況下,無(wú)人駕駛汽車(chē)做出的規(guī)避選擇是完全合法的:它躲開(kāi)了可能直接造成的傷害,也沒(méi)有給其他人帶來(lái)直接的傷害,但是這種合法卻是不道德的,所以也就是說(shuō),僅僅讓無(wú)人駕駛汽車(chē)的程序滿足法律規(guī)范是不夠的。
那應(yīng)該怎么辦?
有這樣或那樣的麻煩并不意味著我們應(yīng)該禁止無(wú)人駕駛汽車(chē)上路,而是意味著我們應(yīng)該為可能發(fā)生的情況早做準(zhǔn)備。有時(shí)候,無(wú)人駕駛汽車(chē)可能會(huì)面臨兩難的選擇,這就給開(kāi)發(fā)者帶來(lái)了潛在的困難和挑戰(zhàn)。
為了減少這種風(fēng)險(xiǎn),行業(yè)應(yīng)該在設(shè)置用戶期望和社會(huì)影響上做更多的工作,它們應(yīng)該讓公眾明白無(wú)人駕駛汽車(chē)的能力和限制,這就意味著算法透明,而不是讓我們無(wú)法理解計(jì)算機(jī)程序掌控我們的生命。
而且算法透明對(duì)生產(chǎn)商和服務(wù)提供商來(lái)說(shuō)也是好事,當(dāng)事故發(fā)生的時(shí)候,他們也能更好地面對(duì)法律和道德上的責(zé)難。
沒(méi)有任何技術(shù)是完美的,事故還將繼續(xù)發(fā)生。對(duì)待可能發(fā)生的問(wèn)題,我們要保持開(kāi)放和對(duì)話,就像上個(gè)月斯坦福大學(xué)的“針對(duì)自動(dòng)駕駛汽車(chē)的編程倫理學(xué)問(wèn)題”做的那樣。因?yàn)闊o(wú)人駕駛是一件重要的造福大眾的事業(yè),我們只有在確定可能存在的問(wèn)題之后才能為之確定可能的解決方案。