自動駕駛載具中的計算機能夠很快做出生與死的決定。但他們應(yīng)該這么做嗎?機器時代我們面臨著生物倫理學(xué)的難題。
有一個很知名的倫理學(xué)難題你一定聽說過:假設(shè)你負(fù)責(zé)控制一輛火車前進的方向,這時候你發(fā)現(xiàn)火車前進的軌道上卡著一輛校車,里面裝滿了孩子,繼續(xù)前進必然會殺死他們;然后你發(fā)現(xiàn)前面還有另一條岔路鐵軌,轉(zhuǎn)動方向進入岔路可以避免裝到校車,但是在那鐵軌上卻有另一個孩子:你的孩子,他在那里玩耍等你下班。現(xiàn)在開關(guān)在你的手里,你只能救下一個方向的孩子,這時候你該怎么選擇?
這個倫理學(xué)困境也被稱為“電車問題”,當(dāng)然版本的細(xì)節(jié)各有出入,本質(zhì)上卻是相通的。在此之前,這還都只是一個有趣的思想實驗,因為人腦在面對這種突發(fā)情況時其實很難基于理智做出決定。但現(xiàn)在是21世紀(jì)了,我們開始有了自動駕駛載具,這樣的問題就開始才從理論變成具有實際應(yīng)用價值的研究主題了。
谷歌的自動駕駛汽車已經(jīng)在美國的道路上奔跑了超過170萬英里,盡管發(fā)生了一些事故,但是谷歌聲稱其自動駕駛汽車都不是事故的原因。沃爾沃稱其自動駕駛汽車將在2017年之前出現(xiàn)在瑞典的高速公路上。伊隆·馬斯克也稱自動駕駛的未來已經(jīng)相當(dāng)接近了,Tesla的自動駕駛模型也將在今年夏天開始上路測試。
你準(zhǔn)備好了嗎?這項技術(shù)已經(jīng)到來了,但是我們準(zhǔn)備好了嗎?
谷歌的自動車已經(jīng)能夠處理一些現(xiàn)實世界的實際困難了,比如當(dāng)前方汽車突然在他們面前轉(zhuǎn)彎時,谷歌的汽車會進行智能規(guī)避。但是在某些情況下,碰撞是不可避免的。而且事實上,谷歌的樣車在上路測試中已經(jīng)經(jīng)歷過了大量的小車禍,盡管谷歌把這些責(zé)任都推到了人類身上。那么對于以上提出的沒有“合理”解決方案的難題,自動駕駛汽車應(yīng)該如何應(yīng)對呢?比如前方的車輛突然急轉(zhuǎn)彎,谷歌的自動駕駛汽車已經(jīng)無可避免地要撞上了,但道路兩邊都是墻,所以留給車子的選擇只有撞前面的汽車或者撞向墻。車載的計算機當(dāng)然有足夠的計算力做出基于“理智”的決定,這一點和人類不一樣。計算機有足夠的時間進行掃描,計算出相關(guān)人類幸存的概率。那么計算機應(yīng)該做出有利于自己主人的決定嗎?即使對方是一輛裝滿兒童的校車?誰應(yīng)該做這個決定?它們會怎樣決定?
“最終,這個問題變成了實利主義和道義之間選擇。”阿拉巴馬大學(xué)伯明翰分校(UAB)校友Ameen Barghi如是說。他于今年五月份畢業(yè),將在今年秋天以UAB第三羅得學(xué)者的身份進入牛津大學(xué),他是一位資深的道德困境研究者。他曾作為該校生物倫理學(xué)隊的資深領(lǐng)導(dǎo)人,贏得了2015年的“生物倫理學(xué)杯”全國比賽。他們獲勝的辯論主題包括埃博拉病毒的臨床試驗和假設(shè)一種能讓一個人愛上另一個人的藥物。在去年的倫理學(xué)杯競賽中,該團隊討論了另一個發(fā)人深省的主題,這個主題正是關(guān)于自動駕駛汽車:如果事實證明自動駕駛比人類駕駛更安全,政府是否應(yīng)該禁止人類駕駛?(他們的答案總結(jié)起來就是:應(yīng)該。)
在駕駛座上的死亡所以你的自動駕駛汽車應(yīng)該為了拯救別人而犧牲你的生命嗎?Barghi說,對于這樣的問題,我們有兩種哲學(xué)方法。他解釋道:“實利主義告訴我們,我們應(yīng)該始終選擇能夠為最多數(shù)人帶來最大收益的解決方案。”換句話說,如果要在把你撞死在墻上和拯救一車孩子之間做出選擇,你的車子會選擇前一種。
然而在道義上講,“有一些價值斷然總是正確的。”Barghi繼續(xù)說:“比如說,謀殺總是錯誤的,我們也不應(yīng)該做這樣的事情。”回到最開始提出的火車問題,“即使轉(zhuǎn)動方向可以拯救五條生命,我們也不應(yīng)做,因為這樣我們就主動地殺死了另一個人。”Barghi說,所以盡管很奇怪,但是一輛自動駕駛汽車不應(yīng)該被編程為選擇犧牲自己的乘客而避免其他人受到傷害。
“電車問題”還有另一些變種版本:如果那一個人是你的孩子呢?另外五個人是五個謀殺犯呢?答案很簡單。Barghi說,“讓用戶在道義和實利主義之間做出選擇,”如果答案是實利主義,那就還有兩個子選項:規(guī)則或行為實利主義。
“規(guī)則實利主義說我們必須總是選擇最有利的行動,而不需要在乎壞境——也就是說按照這一模式,任何版本的電車問題都能很容易得到一個結(jié)果。”Barghi說:計算個體的數(shù)量,選擇大多數(shù)的利益即可。
而行為實利主義,他繼續(xù)說:“說的是我們應(yīng)該將每一個個體看作是行為決定的子集,”這意味著這里就沒有快捷簡單的規(guī)則,每一個情形都有特定的思路。那么計算機要怎樣才能掌握所有這些情況。
“計算機不能編程為掌握所有的情況,”UAB哲學(xué)藝術(shù)和科學(xué)系Gregory Pence博士說,“我們通過了解倫理學(xué)的歷史就能了解這一點。詭辯,或基于圣托馬斯基督教倫理的應(yīng)用,曾經(jīng)嘗試為每一個問題提供一個藥方。最終他們悲慘地失敗了,一方面是因為獨特的情況實在太多了,藥方也在不斷地變化。”
為最壞的情況做好準(zhǔn)備UAB的倫理小組和生物倫理小組花費了大量的時間來研究這些問題,這些結(jié)合了哲學(xué)和未來主義的問題。這兩個團隊現(xiàn)在都由Pence領(lǐng)導(dǎo),他是一位知名的倫理學(xué)家,已經(jīng)為UAB的醫(yī)學(xué)院學(xué)生進行了幾十年的培訓(xùn)。
為了得出結(jié)論,UAB的團隊還會進行激烈的辯論,Barghi說。“隨著Pence博士的加入,我們之間經(jīng)常發(fā)生爭論,而且團隊中的每一個人都可能為某個案例唱反調(diào),”他說。“在比賽進行之前,我們盡力制定出盡可能多的情況和潛在的立場來反駁我們,以讓我們自己對這一主題有更為全面的了解。有時候,我們會在幾天后完全改變自己的立場,因為出現(xiàn)了一些已經(jīng)沒有考慮到的新情況。”
對于無人駕駛汽車,我們現(xiàn)在還剛剛起步,可能還有更深層次的問題還并未出現(xiàn)。盡管未來的技術(shù)有望讓自動駕駛汽車在遭遇事故時做出精細(xì)的計算從而避免出現(xiàn)災(zāi)難性的事故,但意外總是在所難免的。在這些冷血的高速機器投入實用化之前盡力考慮所有的最壞的情況并為之提供前期預(yù)防方案才是合理的舉措,這樣在事故真正發(fā)生的時候,汽車不會因為誤判而做出錯誤的決定。
比如說:如果一輛汽車相信為了拯救坐在駕駛座上的你,需要殺死全世界的人,這時候該怎么辦?