IBM宣布,隨著人們對人臉識別技術(shù)的影響越來越關(guān)注,他們將不再開發(fā)相關(guān)人臉識別技術(shù)與功能。
在給國會的一封信中,IBM首席執(zhí)行官Arvind Krishna寫道:
“基于價值觀和信任與透明度原則。IBM堅決反對并且不會容忍將任何[面部識別]技術(shù)(包括其他供應商提供的面部識別技術(shù))用于大規(guī)模監(jiān)視、種族歧視、侵犯基本人權(quán)和自由或與我們的目的不符的任何目的。
我們認為現(xiàn)在是時候開始關(guān)于國內(nèi)執(zhí)法機構(gòu)是否應該使用面部識別技術(shù)以及如何使用面部識別技術(shù)的全國性對話。”
當前,已經(jīng)發(fā)現(xiàn)面部識別技術(shù)具有種族偏見。 NIST和德克薩斯大學達拉斯分校的研究人員在2010年進行的一項研究發(fā)現(xiàn),在東亞設計和測試的算法在識別東亞人方面更好,而在西方國家設計的算法在發(fā)現(xiàn)高加索人方面更準確。
美國公民自由聯(lián)盟的研究發(fā)現(xiàn),當使用亞馬遜的面部識別工具將眾議院和參議院所有成員的照片與25000張逮捕照片進行比較時,匹配對國會黑人核心小組成員的影響不成比例。
上個月,美國公民自由聯(lián)盟(ACLU)對備受爭議的面部識別公司Clearview AI提起訴訟,稱其為隱私的“噩夢”。該公司與極右翼有廣泛的聯(lián)系,由于其從互聯(lián)網(wǎng)上抓取數(shù)十億張照片的做法,屢屢遭到抨擊。
在英國,平等與人權(quán)委員會(EHRC)呼吁在試驗完全失敗之后,停止公開使用面部識別。大都會警察在2016年的諾丁山狂歡節(jié)上進行了初步審判,結(jié)果沒有發(fā)現(xiàn)一個人。次年的后續(xù)試驗未導致合法比賽,但有35次誤報。
Peter Fussey教授和Daragh Murray博士去年就大都會警察的面部識別試驗發(fā)表了一份媒體告,得出的結(jié)論是,僅在19%的案件中,報告是可驗證的。
IBM已明確表示,它與開發(fā)任何可用于大規(guī)模監(jiān)視的技術(shù)無關(guān),尤其是當它繼續(xù)存在嚴重的準確性問題(可能導致自動種族特征分析)時??死锵<{呼吁進行更廣泛的政策改革,包括維持治安、負責任地使用技術(shù)以及擴大技能和教育機會。