當(dāng)自動(dòng)駕駛汽車遇上道德抉擇
筆者最近閱讀了一篇《MIT Technology Review 》的精彩文章,題為“為何自動(dòng)駕駛車一定得被編程為殺人工具(Why Self-Driving Cars Must Be Programmed to Kill)”。
該文鎖定一個(gè)棘手的問題:“當(dāng)遭遇無可避免的事故,自動(dòng)駕駛汽車的反應(yīng)該如何被編程?自動(dòng)駕駛車輛是否該將人命的損失減到最小,甚至意味著得犧牲車上乘員?或者是它應(yīng)該要不計(jì)代價(jià)保護(hù)所有的乘客?它該在這兩個(gè)極端中隨機(jī)做選擇嗎?”
在文章里還舉了一個(gè)假想的危機(jī)為例:有十個(gè)人突然出現(xiàn)在大馬路上,駕駛?cè)艘愿咚傩旭偠铱磥頍o法及時(shí)煞車;這時(shí)駕駛?cè)耸窃摓榱司茸约旱拿蚕蚱渲幸粋€(gè)或所有行人,還是冒著生命危險(xiǎn)在高速中轉(zhuǎn)向?
問題的關(guān)鍵是,在未來的某個(gè)時(shí)間點(diǎn),汽車工程師需要協(xié)助自動(dòng)駕駛汽車做出道德決策;如果是這樣,誰能選出最有“道德”的做法?在琢磨這一點(diǎn)時(shí),我突然靈光一閃:“為何我們堅(jiān)持一輛自動(dòng)駕駛汽車得做出關(guān)乎生死的選擇?”
當(dāng)然,我想要盡可能挽救最多無辜行人的生命,但我也不想傷害到我車上的乘客,而且我肯定也不想死。我們自己假設(shè)了一個(gè)沒有單一正確解答的極端情況,有鑒于該種不確定性,為何我們不讓車子來做這種不討好的道德抉擇?在那之后,當(dāng)幸存者調(diào)查那場事故時(shí)就能說:“好吧… 車子只是跟著它的程式走。”
根據(jù)自動(dòng)駕駛技術(shù)的數(shù)位邏輯,現(xiàn)在唯一的選擇只有“不計(jì)代價(jià)拯救所有乘客”,但是人命以及大部分道德抉擇都比那復(fù)雜得多;根據(jù)調(diào)查,大多數(shù)駕駛?cè)硕急硎緯?huì)在緊要關(guān)頭冒著生命危險(xiǎn)拯救他人(可惜該調(diào)查都是問路人,而不是自動(dòng)駕駛車輛的主人)。
可編程汽車
隨著自動(dòng)駕駛汽車越來越朝軟體密集發(fā)展,有一個(gè)解決方案是能期望該類車輛更具彈性與個(gè)性化──根據(jù)車主的個(gè)人傾向來預(yù)先編程(pre-programmed)汽車的行為表現(xiàn)。
表面上看,讓自動(dòng)駕駛車輛能讀車主的心思并扮演上帝的角色,是令人不安的;但以目前科技變化的速率,某些版本的這種方案看來是不可避免的。自動(dòng)駕駛車輛的可編程性已經(jīng)讓駕駛座上的人,在盡管沒有駕駛車輛實(shí)質(zhì)動(dòng)作的情況下也能做決策;而現(xiàn)在的問題在于如何讓決策過程更人性化。
在與人命較不相關(guān)的情境下,我現(xiàn)在認(rèn)為那種“可編程性”能讓自動(dòng)駕駛車輛“更具駕駛樂趣”;當(dāng)我進(jìn)入我自己的自動(dòng)駕駛新車,我難道不應(yīng)該可以選擇我那天想怎么開我的車嗎?就如同我的朋友Brian Santo說的:“你可能會(huì)有一個(gè)排列整齊的下拉式選單,就像是Word應(yīng)用程式那樣。”
那些“駕駛模式”選項(xiàng),從“老太太模式(也就是相當(dāng)謹(jǐn)慎)”,到“不要命的波士頓小黃司機(jī)”,中間可以有很多變化…是的,因?yàn)橘I了一輛自動(dòng)駕駛汽車,我可能在大多數(shù)時(shí)間不需要再自己去操作方向盤與煞車;但我仍能把車子“導(dǎo)向”我個(gè)人喜好的風(fēng)格,或是心情。