谷歌 AI 錯把黑人當(dāng)“大猩猩”,如今應(yīng)用識別都心瘆
2015年,一名黑人軟件開發(fā)人員在Twitter上說,谷歌的照片服務(wù)(Google Photos)把他和一個黑人朋友的照片打上了“大猩猩”的標(biāo)簽,這讓谷歌感到非常尷尬。谷歌宣稱自己“感到震驚和由衷的歉意”。一名相關(guān)的工程師表示,谷歌正在“研究更長期的解決方案”。
兩年多之后,谷歌給出的其中一項修復(fù)措施就是將大猩猩和其他靈長類動物的標(biāo)簽從該服務(wù)的詞庫中刪除。這一尷尬的變通方案表明,谷歌和其他科技公司在推進(jìn)圖像識別技術(shù)方面仍舊面臨著諸多困難,盡管這些公司希望能夠在自動駕駛汽車、個人助理和其他產(chǎn)品上使用這些技術(shù)。
《連線》雜志用4萬張圖片對谷歌照片服務(wù)進(jìn)行了測試,這些照片中有很多動物。谷歌照片在尋找包括熊貓和貴賓犬在內(nèi)的許多動物上表現(xiàn)得非常棒。但當(dāng)使用“大猩猩”、“黑猩猩”和“猴子”等詞進(jìn)行搜索時,谷歌照片反饋稱“沒有結(jié)果”。
在谷歌照片服務(wù)中, 谷歌對“大猩猩”、“黑猩猩”和“猴子”等詞的搜索進(jìn)行了審查。
作為一款移動應(yīng)用和網(wǎng)站,谷歌照片為5億用戶提供了管理和備份個人照片的地方。它使用機器學(xué)習(xí)技術(shù),自動將照片進(jìn)行分組,比如湖泊或拿鐵。同樣,用戶也可以利用該技術(shù)對他們的照片進(jìn)行搜索。
在《連線》雜志的測試中,谷歌照片確實識別出了一些靈長類動物。 使用“狒狒”、“長臂猿”、“狨猴”和“猩猩”等詞進(jìn)行搜索,結(jié)果都還不錯。只要搜索時使用術(shù)語而不是使用M開頭的詞語, 就可以找到卷尾猴和疣猴。
在另一項測試中,《連線》上傳了20張黑猩猩和大猩猩的照片,這些黑猩猩和大猩猩來自非營利組織“黑猩猩天堂”和“黛安 · 福西研究所”(Diane Fossey InsTItute)。有些猩猩可以用使用“森林”、“叢林”或“動物園”等關(guān)鍵詞來搜索到,但事實證明,其余的都很難被發(fā)現(xiàn)。
結(jié)論是:在谷歌照片中,狒狒是狒狒,但猴子不是猴子。大猩猩和黑猩猩是不可見的。
智能手機上的谷歌Lens應(yīng)用,也無法識別出來大猩猩。
在第三次測試中,《連線》雜志上傳了一組1萬多張用于面部識別研究的圖片。用“非洲裔美國人”這個詞進(jìn)行搜索,最后只出現(xiàn)了一幅羚羊的畫面。輸入“黑人男性”、“黑人女性”或“黑人”,谷歌的系統(tǒng)會返回黑白圖像,按照性別正確排序,但不被種族過濾。對于膚色較深的人來說,可以使用“非洲式”(afro)和“非洲人”(African)等詞進(jìn)行搜索,盡管結(jié)果好壞參半,并不那么準(zhǔn)確。
谷歌的一位發(fā)言人證實,在2015年的事件發(fā)生后,“大猩猩”就從搜索和圖片標(biāo)簽中刪除了,直到今天“猩猩”、“黑猩猩”和“猴子”等標(biāo)簽仍在屏蔽中。該發(fā)言人在電子郵件中寫道:“圖像標(biāo)簽技術(shù)還處于早期階段,但不幸的是,它還遠(yuǎn)遠(yuǎn)不夠完美。”他強調(diào)了谷歌照片的一個功能,即允許用戶報告錯誤。
谷歌對大猩猩圖片的謹(jǐn)慎處理,說明了現(xiàn)有的機器學(xué)習(xí)技術(shù)上的一個不足之處。有了足夠的數(shù)據(jù)和計算能力,軟件就可以被訓(xùn)練,可以用來對圖像進(jìn)行分類,或者在較高的精確度下對語音進(jìn)行轉(zhuǎn)錄。但它無法輕易超越這種從訓(xùn)練中得出的經(jīng)驗。即使是最優(yōu)秀的算法,也缺乏像人類那樣運用常識或抽象概念的能力,來完善它們對世界的詮釋。
因此,機器學(xué)習(xí)工程師在現(xiàn)實世界中部署他們的成果時,必須對他們的訓(xùn)練數(shù)據(jù)中沒有發(fā)現(xiàn)的“邊緣案例”保持警惕。維吉尼亞大學(xué)教授維恩特·奧達(dá)尼斯·羅梅恩(Vicente ord ez rom n)說:“你的系統(tǒng)一旦開始上線運行,你就很難再對它進(jìn)行建模。”去年,他參與了一項研究,該研究表明,應(yīng)用于圖像的機器學(xué)習(xí)算法可以識別并放大人們對不同性別之間的偏見。
谷歌照片用戶上傳的照片是在各種不完美的條件下拍攝的??紤]到數(shù)據(jù)庫中的圖片數(shù)量,將一種類型的“類人猿”誤認(rèn)成另一種類型的可能性極小。
谷歌母公司Alphabet和更廣泛的科技行業(yè)面臨著更大的風(fēng)險,比如應(yīng)用在自動駕駛汽車上。羅曼(Román)和他的同事、軟件可靠性專家拜沙希·雷(Baishakhi Ray)一起,正在探索如何限制視覺系統(tǒng)在自動駕駛汽車等場景中可能的誤判行為。雷說,這方面已經(jīng)取得了一些進(jìn)展,但目前還不清楚如何能夠很好地控制這些系統(tǒng)的局限性。“我們?nèi)匀徊荒芊浅>唧w地知道這些機器學(xué)習(xí)模型正在學(xué)習(xí)什么,”她說。