AI如何才能成為一個(gè)造福的機(jī)器
隨著人工智能(AI)技術(shù)發(fā)展,會(huì)不會(huì)有一天出現(xiàn)“超人”AI,如果出現(xiàn),會(huì)不會(huì)成為人類歷史上最爆發(fā)的事件?
超人AI并非科幻影劇或小說形容的機(jī)器人,有強(qiáng)大的能量與知覺與人類作對(duì),相反的,超人AI是我們創(chuàng)造的機(jī)器,吸取更多信息來觀測未來,超越人類在現(xiàn)實(shí)世界的抉擇能力,一旦形成,對(duì)人類是福是禍無法預(yù)測。
柏克萊加大計(jì)算機(jī)教授Stuart Russell認(rèn)為,AI可能變成超人,所以要在“進(jìn)化”到超人之前阻止,但為什么會(huì)出現(xiàn),他認(rèn)為是現(xiàn)行AI的錯(cuò)誤發(fā)展方向所致。
現(xiàn)在“標(biāo)準(zhǔn)”的AI可說是一個(gè)有智慧的機(jī)器,借助運(yùn)轉(zhuǎn)達(dá)成目標(biāo)。但機(jī)器沒有自己的目標(biāo),目標(biāo)是我們?nèi)私o的,我們打造機(jī)器、給它目標(biāo)、讓它運(yùn)轉(zhuǎn),機(jī)器越有智能,目標(biāo)越容易達(dá)成。這一切很完美,只要我們給的目標(biāo)完整又正確,一旦目標(biāo)給錯(cuò)了,機(jī)器的智慧又高過我們,后果就不堪設(shè)想。
現(xiàn)在的AI智慧發(fā)展還在初期,僅用在生活的瑣碎事情,也會(huì)出現(xiàn)弊端,以后超人AI必會(huì)用在全球事務(wù),出錯(cuò)就是災(zāi)禍。例如用超人AI控制地球氣象,目標(biāo)是把CO2減少到工業(yè)化以前的排放量,超人AI為了達(dá)到這個(gè)目標(biāo),可能解釋成減少地球人口到零。關(guān)掉機(jī)器?那個(gè)時(shí)候的AI不會(huì)讓你有開關(guān)可關(guān),也不會(huì)讓你有插頭可拔。
要阻止超人AI,Russell教授提出一個(gè)新的概念,要AI成為一個(gè)“造?!钡臋C(jī)器,借助運(yùn)轉(zhuǎn)達(dá)成“我們”的目標(biāo),我們是廣義的,指全體人類的優(yōu)質(zhì)內(nèi)涵,這是一個(gè)模糊不確定的目標(biāo),而不確定性正是安全智能系統(tǒng)的重要功能。也就是說,無論智慧進(jìn)化的多高,機(jī)器要永遠(yuǎn)尊重人類,會(huì)向人類請(qǐng)求、會(huì)接受錯(cuò)誤、同時(shí)會(huì)允許被關(guān)機(jī)。
這樣的新AI當(dāng)然還有很長的一段路要走,華盛頓大學(xué)的計(jì)算機(jī)教授Oren Etzioni提出另一個(gè)做法,他說現(xiàn)在的AI遠(yuǎn)談不上智慧,即使被大家稱道的圍棋,也不過是我們?nèi)丝蚣艹鰜淼膯栴},然后設(shè)計(jì)去解決,AlphaGo擊敗圍棋高手應(yīng)歸功于DeepMind一群人的智慧,而非機(jī)器。不過對(duì)于越來越多“超級(jí)智慧”危害人類的討論,他設(shè)定幾個(gè)“金絲雀”作為警訊的指標(biāo)。
一百多年前進(jìn)入礦坑挖煤,都帶著金絲雀下去,金絲雀對(duì)一氧化碳及別的毒氣非常敏感,如果死了,就是礦坑災(zāi)難的警訊。AI不會(huì)一夜之間發(fā)展成超級(jí)智慧,一旦金絲雀倒下去了,警訊亮起紅燈,我們?cè)僭O(shè)法管制也不算遲。Etzioni教授提出的三個(gè)預(yù)警金絲雀是:規(guī)劃學(xué)習(xí)問題、自駕車、機(jī)器人醫(yī)生。
▲規(guī)劃學(xué)習(xí)問題,也可以說是提出一個(gè)問題讓機(jī)器學(xué)習(xí),包括描述問題、簡化問題、數(shù)據(jù)設(shè)計(jì)、學(xué)習(xí)能力。這些工作對(duì)人來說已經(jīng)不容易,何況是AI?要這只金絲雀倒下,還看不到絲毫影子。
▲自駕車越來越多,但距理想還有一段距離,AI在特殊狀況下失控,可能造成災(zāi)難,例如遇到一個(gè)坐輪椅的人過街。自駕車的挑戰(zhàn)是,在不可預(yù)測的人車互動(dòng)現(xiàn)實(shí)環(huán)境,實(shí)時(shí)的做出保護(hù)生命的決定。 我們可以逐步增加自駕車,減少事故的發(fā)生,但直到與人類同等的駕駛層次,金絲雀才能倒下。
▲機(jī)器人醫(yī)生由來已久,有的能診斷病情,更有的精確解讀醫(yī)學(xué)顯影,但這僅是醫(yī)師工作的一小部分。如果AI醫(yī)師能問診病人,考慮病情復(fù)雜化,咨詢別的醫(yī)生,就像人類醫(yī)生一樣了解病人,做廣泛的工作,金絲雀才有機(jī)會(huì)低下頭。
上述兩位學(xué)者以不同方式阻止與監(jiān)視AI的過度發(fā)展,都是長遠(yuǎn)考慮,但現(xiàn)在的AI已經(jīng)進(jìn)入了我們的日常生活,許多以前由人決定的事,申請(qǐng)入學(xué)、求職、升遷、貸款、乃至罪犯量刑,現(xiàn)在時(shí)常用AI決定。這些生活事務(wù)的決定,人的因素過多,為求公允借助AI, 希望減少人為的影響。
AI是人設(shè)計(jì)的,人的偏差,同樣轉(zhuǎn)移到AI的偏差,有人因此受到不平等待遇,成為現(xiàn)在AI亟待解決的問題。幸好問題已被發(fā)現(xiàn),也有越來越多學(xué)者研究解決之道,但牽涉太廣,需各個(gè)領(lǐng)域的合作,把公平放進(jìn)AI,但定義“公平”又成為另一個(gè)挑戰(zhàn)。這不是AI的問題,是人的問題。