Gary Marcus與Robin Young均提及Isaac Asimov所建構的機器人三大 法則,以這些法則在一個無人駕駛的汽車世界中意味著什么。例如,如果你的汽車在行經(jīng)一座橋梁時,剛好遇上一輛校車在你的面 前突然回轉。那么,您的無人駕駛汽車該救你還是校車上的一群學童?
以技術面來看,這些問題中有許多情況(并非全部)應該是發(fā)生故障了。因為,在未來的世界里,公共汽車并不會突然回轉到你的車道上,因為公車車隊將成為首先配備主動式安全電子系統(tǒng)的對象;或許不見得是無人駕駛公車,但也絕不容許駕駛人員突然改變車道。無人駕駛汽車在面對這種關鍵時刻的反應速度比你個人更快得多了。
不過,如果真的為所謂的“機器人道德”而感到傷腦筋其實也很可笑:因為它先認定了人類的道德準則最優(yōu)越且具普世價值,而事實上,他們和人類幾乎完全不相同,在文化上也各異其趣。
就算是每個人的價值觀也不盡相同。你曾經(jīng)和孩子或朋友們玩過道德游戲嗎?例如你提出了一個問題:“你會去偷食物來喂飽饑餓的家人嗎?”我想,并不是每個人都的答案都一樣。
從未來10年后的技術發(fā)展趨勢來看,我想屆時機器人的決策行為對于社會的影響可能比起今日的情況更好,對于道德倫理的考慮也會更不一樣。這一切可能會從自動偵測到駕駛人喝太多酒而使車子無法發(fā)動開始。
隨著機器人技術變得更智能化、更“人性化”且更普及,還會出現(xiàn)更多我們無法想象的種種挑戰(zhàn)。未來針對機器人道德規(guī)則的制定將是不可避免的。
特別是Asimov在“機器人三大 法則”中的第一條規(guī)則更形重要:機器人不得傷害人類,或坐視人類受傷害。其次,機器人必須服從人類的命令。第三,在不違背第一法則及第二法則的情況下,機器人必須保護自己。
為什么呢?因為在某些情況下,機器人可能決定在必要時必須犧牲你,而拯救一群人,才是對社會最好的決定。
對于必須作出攸關生死決定的人而言,要建立或編寫這些規(guī)則是十分艱難的。也許我們應該委托機器人來進行。
你認為呢?
編譯:Susan Hong