AI自從以應用角度走進大眾視野,就一直逃不出“人文主義”的苛責。作為一種依靠于海量數(shù)據(jù)運轉(zhuǎn)的技術(shù),AI之所以能夠作為提升效率的工具,主要還是因為對人類經(jīng)驗的高度集中。
而“人類經(jīng)驗”這件事,本身就是不夠完美的。普遍能夠累積成海量數(shù)據(jù)的經(jīng)驗,有時反而更加充滿偏見。就像如果把AI帶入哥倫布時代,AI也會成為一位堅定的地心論支持者。
而李飛飛離開谷歌回歸斯坦福后,主導的第一個項目HAI——以人為本人AI研究院(Stanford Human-Centered AI Institute),就在著重解決AI與人文主義之間的溝壑。
AI 擬人化,竟是一位“富裕的白人男性”?
首先要知道的,究竟是什么讓AI無法“以人為本”?
目前從人文、從公平的角度來看,AI公認的兩個問題是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。
所謂白人至上,是指在算法驅(qū)動下AI所做出的一些種族歧視行為。例如谷歌的圖片自動分類曾經(jīng)將黑人照片分類成大猩猩,以及惠普的攝像頭算法無法識別深膚色的人。在犯罪預測軟件中,甚至會將黑人的犯罪率識別成普通白人的兩倍以上。
而男性之海,則指的是AI從業(yè)者中有極大的性別傾斜,在2015年的NIPS上,女性與會者的人數(shù)竟然只占到了13.7%,李飛飛提到,在論文引用量,男性作者的被引用次數(shù)要比女性作者高100倍。
用《紐約時報》的話講,兩者結(jié)合,讓AI被塑造出了一個“富裕白人男性”的價值觀——剛好和那些掌握著科技霸權(quán)的企業(yè)主們一模一樣。
如此以來,對于AI的應用很可能反而會讓人們一直以來對于推動種族、性別間平等所做的努力白費。
就像平權(quán)主義者一直在推動男女收入平等,而去年卡內(nèi)基梅隆大學的計算機科學家卻發(fā)現(xiàn),在谷歌的廣告推送機制中,更傾向于將高收入工作的招聘廣告推送給男性用戶。
而當美國各地警察部門在執(zhí)行預測性警務工作時,數(shù)據(jù)驅(qū)動的風險評估工具會讓他們更多的前往有色人種聚集區(qū),無形中加重了對某一人群的偏見和標簽化。
可怕的是,當女性在職場上遇到歧視時,她還可以對自己情況進行發(fā)聲。而當AI驅(qū)動一切在無聲中進行時,女性甚至不知道自己正在處在歧視鏈之中——如果從沒見過這項招聘啟事,女性自然不知道高收入工作更傾向于招聘男性。
而當AI行業(yè)中充斥著“富裕的白人男性”時,他們自然也很難注意到算法黑箱中產(chǎn)生了這樣的問題。最終萬事萬物都在人類歧視造就的規(guī)則下運行,被驅(qū)動的每一個群體卻又看不清規(guī)則的真正面目。
十億美金的遠大目標
李飛飛在斯坦福主導的HAI項目,大概有著以下三個目標:第一是推進和發(fā)展下一代AI科學(重點在于腦科學和認知科學),第二是研究和預測AI對人類社會和生活的影響,第三是設(shè)計和實踐以人為本的AI技術(shù)和應用。
這么一看,所謂“以人為本”的說法其實挺虛的。但綜合斯坦福的一些公開資料,以及李飛飛的一些講話,我們可以大概總結(jié)出HAI究竟想做些什么。
首先是在AI研究中引入更多樣化的視角和交叉思維。
最主要的,就是支持女性和有色人種進入AI研究。例如斯坦福所支持的“Black in AI”項目,就在號召有色人種關(guān)注目前的AI研究,關(guān)注AI無形中所帶來的歧視問題。
同時還有持續(xù)追蹤各個領(lǐng)域應用AI后所帶來的影響。
初次之外,HAI還邀請了社會各界人士共同參與,如教育、工業(yè)、藝術(shù)等等領(lǐng)域,試圖讓他們一起發(fā)表意見,尤其是對技術(shù)研發(fā)者給出反饋,告訴他們AI究竟對這一領(lǐng)域產(chǎn)生了哪些影響,以權(quán)衡技術(shù)的未來走向。
至于推動下一代AI科學就很好理解了,主要是幫助研究者圈定研究方向,推動AI的可解釋性等等,這里就不再進行贅述。
但有趣的是,HAI作為一個非常政治正確并偉光正的項目,并沒有在輿論獲得一致性的支持。尤其有媒體指出,該機構(gòu)有121位教職工,其中有100位以上都是白人,并只有30%的女性。
于是事情就變成了,HAI邀請了一群富裕的白人男性,試圖募集10億美金去從人文角度矯正人工智能的“富裕白人男性”價值觀。
齒輪之下:如何看待商業(yè)效率以外的 AI ?
雖然HAI獲得的評價不一,但AI所帶來的公平性問題,確實已經(jīng)開始影響人們的正常生活。
就像上文提到的算法錯誤估計有色人種犯罪率將其提升了兩倍,同樣意味著算法將白人的犯罪率錯誤的低估了兩倍。如果執(zhí)法者依賴這種錯誤的算法,則意味著不僅可能冤枉好人,也可能錯放壞人。
又比如前兩年亞馬遜曾經(jīng)鬧出的丑聞,用戶發(fā)現(xiàn)算法在分配貨物能否當日送達時,一旦輸入了黑人聚集區(qū)的郵政編碼,就無法使用當日送達服務。
(被評價為“高風險”的有色人種,和擁有數(shù)次犯罪記錄卻被評定為低風險的白人)
這種偏見現(xiàn)象正在越來越多地出現(xiàn)在種種服務中:貸款的AI風控、保險的AI審核機制。最后就導致了越是弱勢群體,越容易被算法邊緣化,進而難以獲得資源與幫助,最后進一步地向弱勢一方傾斜,甚至最終走向犯罪,加重了算法歧視。
如此看來HAI的很多策略,是非常值得我們仔細思考的。
例如,當我們在關(guān)注產(chǎn)業(yè)AI的效率問題時,我們是否也應該考慮在效率之外,AI對于產(chǎn)業(yè)的更多影響?當AI對于擁有強大IT基礎(chǔ)的零售集團發(fā)揮作用,他們更加理解用戶心智時,那些小而美的微型零售店是否在風潮中被遺忘和擠壓,最終退出舞臺?
又比如除了那些研發(fā)技術(shù)和為技術(shù)買單的人之外,我們是否有責任去傾聽更多人的聲音?AI的研發(fā)者與技術(shù)采買者或許清晰地知道AI是如何推動我們生活運轉(zhuǎn)的,但那些同樣被卷在齒輪之下的人,是否也有權(quán)力了解到這些齒輪的運轉(zhuǎn)規(guī)則?
更重要的,我們是否應該盡力去推動AI黑箱的透明化,在發(fā)現(xiàn)問題時能夠從內(nèi)部技術(shù)機制上解決?
以往我們總覺得,技術(shù)永遠只是研發(fā)者和應用之間的故事。如今看來,或許AI已經(jīng)成為了一個世界命題。