隨著人工智能(AI)技術(shù)發(fā)展,會不會有一天出現(xiàn)“超人”AI,如果出現(xiàn),會不會成為人類歷史上最爆發(fā)的事件?
超人AI并非科幻影劇或小說形容的機器人,有強大的能量與知覺與人類作對,相反的,超人AI是我們創(chuàng)造的機器,吸取更多信息來觀測未來,超越人類在現(xiàn)實世界的抉擇能力,一旦形成,對人類是福是禍無法預(yù)測。
柏克萊加大計算機教授Stuart Russell認(rèn)為,AI可能變成超人,所以要在“進化”到超人之前阻止,但為什么會出現(xiàn),他認(rèn)為是現(xiàn)行AI的錯誤發(fā)展方向所致。
現(xiàn)在“標(biāo)準(zhǔn)”的AI可說是一個有智慧的機器,借助運轉(zhuǎn)達(dá)成目標(biāo)。但機器沒有自己的目標(biāo),目標(biāo)是我們?nèi)私o的,我們打造機器、給它目標(biāo)、讓它運轉(zhuǎn),機器越有智能,目標(biāo)越容易達(dá)成。這一切很完美,只要我們給的目標(biāo)完整又正確,一旦目標(biāo)給錯了,機器的智慧又高過我們,后果就不堪設(shè)想。
現(xiàn)在的AI智慧發(fā)展還在初期,僅用在生活的瑣碎事情,也會出現(xiàn)弊端,以后超人AI必會用在全球事務(wù),出錯就是災(zāi)禍。例如用超人AI控制地球氣象,目標(biāo)是把CO2減少到工業(yè)化以前的排放量,超人AI為了達(dá)到這個目標(biāo),可能解釋成減少地球人口到零。關(guān)掉機器?那個時候的AI不會讓你有開關(guān)可關(guān),也不會讓你有插頭可拔。
要阻止超人AI,Russell教授提出一個新的概念,要AI成為一個“造?!钡臋C器,借助運轉(zhuǎn)達(dá)成“我們”的目標(biāo),我們是廣義的,指全體人類的優(yōu)質(zhì)內(nèi)涵,這是一個模糊不確定的目標(biāo),而不確定性正是安全智能系統(tǒng)的重要功能。也就是說,無論智慧進化的多高,機器要永遠(yuǎn)尊重人類,會向人類請求、會接受錯誤、同時會允許被關(guān)機。
這樣的新AI當(dāng)然還有很長的一段路要走,華盛頓大學(xué)的計算機教授Oren Etzioni提出另一個做法,他說現(xiàn)在的AI遠(yuǎn)談不上智慧,即使被大家稱道的圍棋,也不過是我們?nèi)丝蚣艹鰜淼膯栴},然后設(shè)計去解決,AlphaGo擊敗圍棋高手應(yīng)歸功于DeepMind一群人的智慧,而非機器。不過對于越來越多“超級智慧”危害人類的討論,他設(shè)定幾個“金絲雀”作為警訊的指標(biāo)。
一百多年前進入礦坑挖煤,都帶著金絲雀下去,金絲雀對一氧化碳及別的毒氣非常敏感,如果死了,就是礦坑災(zāi)難的警訊。AI不會一夜之間發(fā)展成超級智慧,一旦金絲雀倒下去了,警訊亮起紅燈,我們再設(shè)法管制也不算遲。Etzioni教授提出的三個預(yù)警金絲雀是:規(guī)劃學(xué)習(xí)問題、自駕車、機器人醫(yī)生。
▲規(guī)劃學(xué)習(xí)問題,也可以說是提出一個問題讓機器學(xué)習(xí),包括描述問題、簡化問題、數(shù)據(jù)設(shè)計、學(xué)習(xí)能力。這些工作對人來說已經(jīng)不容易,何況是AI?要這只金絲雀倒下,還看不到絲毫影子。
▲自駕車越來越多,但距理想還有一段距離,AI在特殊狀況下失控,可能造成災(zāi)難,例如遇到一個坐輪椅的人過街。自駕車的挑戰(zhàn)是,在不可預(yù)測的人車互動現(xiàn)實環(huán)境,實時的做出保護生命的決定。 我們可以逐步增加自駕車,減少事故的發(fā)生,但直到與人類同等的駕駛層次,金絲雀才能倒下。
▲機器人醫(yī)生由來已久,有的能診斷病情,更有的精確解讀醫(yī)學(xué)顯影,但這僅是醫(yī)師工作的一小部分。如果AI醫(yī)師能問診病人,考慮病情復(fù)雜化,咨詢別的醫(yī)生,就像人類醫(yī)生一樣了解病人,做廣泛的工作,金絲雀才有機會低下頭。
上述兩位學(xué)者以不同方式阻止與監(jiān)視AI的過度發(fā)展,都是長遠(yuǎn)考慮,但現(xiàn)在的AI已經(jīng)進入了我們的日常生活,許多以前由人決定的事,申請入學(xué)、求職、升遷、貸款、乃至罪犯量刑,現(xiàn)在時常用AI決定。這些生活事務(wù)的決定,人的因素過多,為求公允借助AI, 希望減少人為的影響。
AI是人設(shè)計的,人的偏差,同樣轉(zhuǎn)移到AI的偏差,有人因此受到不平等待遇,成為現(xiàn)在AI亟待解決的問題。幸好問題已被發(fā)現(xiàn),也有越來越多學(xué)者研究解決之道,但牽涉太廣,需各個領(lǐng)域的合作,把公平放進AI,但定義“公平”又成為另一個挑戰(zhàn)。這不是AI的問題,是人的問題。