Axon設立AI倫理委員會 將研究人臉識別技術危害
據(jù)外媒報道,Axon近日推出了一個全新的AI倫理委員會以此來為公司的AI技術使用提供指導。委員會未來每年將舉行兩場會議,他們將就即將到來的Axon產(chǎn)品的道德問題特別是它們的使用可能對社區(qū)治安帶來的影響展開討論。
對此,隱私倡導機構敦促該委員會密切關注Axon的人臉識別技術開發(fā)。
Axon發(fā)言人Steve Tuttle告訴外媒The Verge:“他們可以讓我們對公眾負責,并幫助我們?yōu)閳?zhí)法行動制定一套AI倫理準則。”
雖然這家公司目前還沒有開發(fā)出專門針對執(zhí)法部門的實時人臉識別技術,但CEO Rick Smith曾表示,這種技術對于解決兒童誘拐或恐怖分子搜捕等極端案件非常有用。
直到去年,Axon的名字還叫Taser InternaTIonal,新名字則來自其云平臺。這個平臺擁有20多億字節(jié)的數(shù)據(jù),Axon表示這使公司成為了美國甚至可能是全球最大的公共安全數(shù)據(jù)保管平臺。
由41個公民權利組織組成的團隊對這個新委員會做出回應,他們希望Axon能將像實時人臉識別等技術產(chǎn)品定義為不道德行為。該團隊在寫給Axon中的信件中說道:“沒有任何政策或保障能夠充分地緩解存在于實時人臉識別的風險。”
據(jù)了解,面部識別算法在處理種族和性別偏見問題時面臨困難,女性和非白人的錯誤率更高。雖然一些產(chǎn)品展現(xiàn)了不錯的錯誤率,但許多算法仍舊在這個問題上苦苦掙扎。MIT今年的一項研究就發(fā)現(xiàn),IBM、微軟等提供的人臉識別算法在種族上就存在明顯差異。而如果在執(zhí)法環(huán)境下,這些錯誤率將引發(fā)更多的人力成本。
Tuttle在接受采訪時特別強調(diào),公司希望對AI的關注能夠領先于公眾。另外他還表示委員會和Axon將會進行溝通交流,這不僅包括上面提到的兩份年度報告還包括了電話、郵件等所有類型的交流途徑。