機器人正在全速朝著智能化發(fā)展,但是智能化機器人可能會遇到一個大麻煩,也是人類在遭遇的大麻煩。如機器人要不要和人類一樣遵守法律法規(guī)?機器人究竟要遵守什么樣的規(guī)矩?要受怎么樣的約束?問號一連串,但誰能回答?
就拿“助行機器人”來說,這是由上海交通大學(xué)機器人研究所最近研發(fā)成功的,這種像一部“智能小車”的機器人,能自己識別道路,自行確定行駛路線……帶著行動困難或視力有障礙的人出行。但這款機器人真要實際應(yīng)用,甚至推向市場,障礙還很多:它應(yīng)該遵守什么交通規(guī)則?是針對行人的交通規(guī)則,還是機動車行駛規(guī)則?如果它造成了交通事故,該如何處理?這些問號目前還無人能回答。
曾經(jīng)在上海世博會露過面的另一些機器人,比如伴侶機器人、餐廳機器人、醫(yī)療機器人,一樣讓人糾結(jié):如果它們在工作中出了差錯造成事故,該由誰負(fù)責(zé)?特別是,這些機器人都是“高智能”的,有學(xué)習(xí)功能、能“自學(xué)成才”,也就是說,一段時間之后,它不再是出生時的它了;它會像人一樣,根據(jù)自己的所“見”所“想”自作主張——要是想法走偏瞎搞一氣怎么辦?人類創(chuàng)造了機器人,但機器人一旦擁有智能,需要的就不僅僅是維護和修理,更得做規(guī)矩約束,要讓它的想法和行為合乎人類世界的倫理道德。
其實國外很早就有人在關(guān)注機器人道德問題,提出了著名的“機器人三原則”:機器人不能傷害人類,也不能眼看人類將要遇到傷害而袖手旁觀;機器人必須服從人的命令,除非這些命令與第一條原則相違背;機器人應(yīng)該能保護自己,但與前兩條原則相違背的情況除外。對于機器人用于醫(yī)療領(lǐng)域和研發(fā)醫(yī)療機器人,目前美國未加限制,歐洲定了一些規(guī)矩,而日本根據(jù)“機器人三原則”,明確禁止。但更多人認(rèn)為“倫理道德還不完善”的機器人,不適合用在敏感領(lǐng)域。比如機器人具備人工智能,可以自主學(xué)習(xí)并獨立手術(shù),但如果“學(xué)藝不精”出了事故,那是不是意味著沒有遵守“三原則”?或者,機器人在手術(shù)時發(fā)現(xiàn)患者病入膏肓、已沒有繼續(xù)手術(shù)的必要,因此不做了,那又如何評判這種行為的對錯?因此,機器人的倫理道德還不完善,隨著智能機器人研發(fā)的不斷進(jìn)展,當(dāng)機器人也會有想法時,這個問題就更復(fù)雜了。
目前,國內(nèi)研究機器人倫理道德的學(xué)者寥寥無幾?,F(xiàn)在學(xué)界很看好第三代機器人技術(shù),這種被稱為“泛在機器人”即“無所不在的機器人”的有智能的家伙,可以識別人的聲音指示,甚至能學(xué)會對主人察言觀色,滿足主人的需求……可是,如何保證機器人的判斷和行為符合人類倫理道德,包括保證它不為了滿足主人的要求而違背人類倫理道德呢?在機器人越來越智能化,越來越普及的時候,這些問題將會成為人類面對的最大難題。