IBM宣布退出人臉識別:不再向警方提供人臉識別技術(shù)
近日,IBM、亞馬遜和微軟相繼發(fā)表聲明,宣布不再向警方提供人臉識別技術(shù)。對包括人臉識別在內(nèi)的AI侵犯隱私的聲討由來已久,但它并不是這些技術(shù)公司此次表態(tài)的直接原因。
5月25日,非裔美國人喬治·弗洛伊德(George Floyd)在明尼蘇達(dá)州涉嫌使用假鈔被捕,并被警察以壓頸執(zhí)法致死。事件引發(fā)美國社會以“BLM(Black Lives Matter,黑人的命也是命)”為口號的反種族歧視運(yùn)動。
美國民眾抗議警察暴力執(zhí)法。| 圖片來源:視覺中國 在美國,IBM、亞馬遜、微軟等公司都曾不同程度地向美國執(zhí)法機(jī)構(gòu)交付過人臉識別工具。通過這類工具,警察可以在街頭巡邏時(shí)快速比對他們手機(jī)攝像頭中的圖片,還能將其與警察數(shù)據(jù)庫中的數(shù)十萬張照片做匹配。這種人臉識別工具強(qiáng)化了警察的能力,也自帶偏見。
在科技公司站出來之前,以價(jià)值觀著稱的Nike、星巴克等消費(fèi)品公司都已發(fā)聲,Nike在一支廣告片中將其品牌口號“Just do it”臨時(shí)性地改成了“Don’t do it”;星巴克也從6月12日起允許員工穿戴BLM相關(guān)的服飾,并發(fā)放了25萬件相關(guān)配飾給員工。
為什么是IBM開了這個(gè)頭?
在寫給國會議員的那封信中,CEO克里什納的具體表述為,IBM將不再提供基于通用目的的人臉識別技術(shù)和分析軟件。
這一表述被認(rèn)為模棱兩可,比如位于倫敦的名為國際隱私(Privacy International)的NGO在接受BBC采訪時(shí),對其的一種解讀就是:那么是否還可以繼續(xù)提供基于定制的人臉識別技術(shù)和分析軟件?
IBM在該領(lǐng)域的行業(yè)地位是外界質(zhì)疑其出發(fā)點(diǎn)的主要原因——在人臉識別領(lǐng)域,IBM的市場份額其實(shí)很小。
準(zhǔn)確說,包括人臉識別在內(nèi)的人工智能技術(shù)本身并不是獨(dú)立的產(chǎn)品,只是一種底層技術(shù)——其前端需要諸如智能攝像頭、智能手機(jī)、智慧門鈴等終端設(shè)備,后端需要云計(jì)算設(shè)施存儲和處理數(shù)據(jù)。
在美國,擁有這項(xiàng)技術(shù)的技術(shù)公司比如亞馬遜、微軟等之所以出售這項(xiàng)技術(shù),主要是為了銷售它們的終端產(chǎn)品和輔助的云計(jì)算服務(wù),而IBM在這兩個(gè)場景中的市場份額都很小。IBM 的人臉識別主打產(chǎn)品Watson visual detection的主要使用場景為安防領(lǐng)域,主要客戶則是政府安保部門或其他安防機(jī)構(gòu)。
根據(jù)市場研究機(jī)構(gòu)Gartner的數(shù)據(jù),2019年,全球云計(jì)算市場中份額最高的公司是亞馬遜(45%),其次是微軟(17.9%)和阿里云(9.1%),Google擁有5.3%的份額,剩余23.7%的份額由“其他”數(shù)家公司共享——IBM屬于“其他”這部分。
IBM在這一領(lǐng)域其實(shí)失意已久,盡管它原本算得上人工智能時(shí)代的領(lǐng)頭羊。早在2008年,時(shí)任CEO彭明盛就提出了“智慧地球”這一概念,并建議當(dāng)時(shí)的奧巴馬政府投資新一代的智慧型基礎(chǔ)設(shè)施。這個(gè)概念成為后來“智慧城市”的雛形,其標(biāo)配就是智能攝像頭、傳感器、圖像識別以及人臉識別。
而在更早的1997 年,IBM的人工智能程序“深藍(lán)”就戰(zhàn)勝了國際象棋冠軍卡斯帕洛夫。
但I(xiàn)BM一直缺乏為這些技術(shù)尋找落地場景、將它們進(jìn)一步商業(yè)化的能力。
與其對照,亞馬遜通過不斷在新拓展的場景中應(yīng)用新技術(shù),拿到了從云計(jì)算到人工智能的實(shí)際市場份額。就人工智能而言,這個(gè)零售商除了可以直接向警察銷售的人臉識別軟件Rekognition,還有面向普通消費(fèi)者的智慧門鈴Ring、智能音箱Echo等。
被回避的問題:
AI濫用及其對隱私的侵犯
IBM在信中呼吁對用于執(zhí)法的人工智能系統(tǒng)做“偏見測試(bias test)”。不過,尚沒有證據(jù)表明5月25日當(dāng)天警察之所以執(zhí)法過當(dāng),跟George Floyd曾有的犯罪記錄或者警察是否使用了相應(yīng)的AI工具有什么關(guān)聯(lián)。
IBM下了一步險(xiǎn)棋。它表現(xiàn)了一家老牌技術(shù)公司在消除歧視方面的社會責(zé)任,將反思之火燒到比人臉識別、比偏見更深遠(yuǎn)的領(lǐng)域,直到到達(dá)問題的核心——人們對AI濫用及其侵犯隱私的擔(dān)憂。
當(dāng)今美國最嚴(yán)厲的隱私法是《加利福尼亞消費(fèi)者隱私法》(California Consumer Privacy Act),這項(xiàng)法律剛剛于2020年1月1日生效。根據(jù)法律,加利福尼亞的消費(fèi)者不僅有權(quán)知道自己的數(shù)據(jù)是出售還是轉(zhuǎn)讓給第三方,而且他們還有權(quán)阻止交易。
但是交易只是數(shù)據(jù)價(jià)值的一部分,即使這項(xiàng)“最嚴(yán)厲”的法律也沒有對技術(shù)公司可以如何獲取數(shù)據(jù)、使用用戶數(shù)據(jù)做出規(guī)定。更遑論執(zhí)法上的難度,技術(shù)作者Charlie Warzel在《紐約時(shí)報(bào)》今年1月的一份評論中稱:有關(guān)公司只是虛假地聲稱他們遵守隱私法,因?yàn)樗麄冎辣O(jiān)管機(jī)構(gòu)根本不會對其審查。
并不中立的AI
在BLM運(yùn)動爆發(fā)前,有關(guān)AI偏見、AI歧視的研究和討論已持續(xù)數(shù)年。
AI并不像外界料想的那般中立,“它能增強(qiáng)現(xiàn)有偏見和歧視?!逼杖A永道咨詢公司的AI道德專家(AI ethics expert)Maria Axente說。
這種被強(qiáng)化的偏見危害深遠(yuǎn)。 使用AI推薦Spotify上的歌曲或Netflix上的電影,即使推薦不合口味也不會有多糟糕的后果,但如果一個(gè)AI可以決定貸款給誰、或者對患者究竟患了何種疾病做出診斷,那它是否有偏見就事關(guān)生存和生命。
2017年,算法正義聯(lián)盟(Algorithmic Justice League)創(chuàng)始人Joy Buolamwini 對IBM、微軟、曠視3家公司的人臉識別算法做了偏見測試。他收集了來自3個(gè)非洲國家和3個(gè)歐洲國家的1270張人臉照片,交給三家公司的產(chǎn)品識別,結(jié)果顯示,三個(gè)產(chǎn)品對女性的識別率低于男性、對深色人種的識別準(zhǔn)確率遠(yuǎn)低于白種人。其中,IBM的算法準(zhǔn)確率誤差最大,其對淺膚色男性和深膚色女性的錯(cuò)誤率相差達(dá)到了34.4%。
造成算法“偏見”的原因很簡單——主要是由數(shù)據(jù)量不足造成的。美國國家標(biāo)準(zhǔn)技術(shù)研究所和德克薩斯大學(xué)達(dá)拉斯分校的研究人員在2010年發(fā)表的一項(xiàng)研究就指出,東亞設(shè)計(jì)和測試的算法在識別東亞人方面更好,而西方國家設(shè)計(jì)的算法在發(fā)現(xiàn)高加索人方面更準(zhǔn)確。造成這種結(jié)果的直接原因是它們能收集到的數(shù)據(jù)種類及其規(guī)模。
但算法偏見也不純粹是個(gè)技術(shù)問題。2017年,微軟旗下的人工智能聊天機(jī)器人Tay在Twitter上線,這款機(jī)器人推出的目標(biāo)是與18-24歲的年輕人互動,并通過這種互動學(xué)習(xí)、訓(xùn)練。然而24個(gè)小時(shí)后,Tay就因辱罵用戶、發(fā)表種族主義評論等表現(xiàn)被迅速撤下。事故之后,微軟換上了經(jīng)過內(nèi)容審查的版本Zo,但它并沒有找到根本性地解決問題的辦法。
機(jī)器人Tay的賬號已經(jīng)被撤銷 。
不會停止的博弈,激進(jìn)分子、道德主義與技術(shù)中立者的博弈對于究竟哪些數(shù)據(jù)算隱私、哪些可以被冒犯而哪些又可以妥協(xié),社會并沒有一致意見。