歐美有些國家限制使用人臉識(shí)別的原因是什么
掃描二維碼
隨時(shí)隨地手機(jī)看文章
過去數(shù)年中,人臉識(shí)別技術(shù)是發(fā)展最快的新技術(shù)之一。助推人臉識(shí)別技術(shù)發(fā)展的主要是機(jī)器學(xué)習(xí)、云計(jì)算等人工智能相關(guān)技術(shù)的突飛猛進(jìn),以及越來越清晰和便宜的攝像頭。人臉識(shí)別技術(shù)已經(jīng)用在了很多人的手機(jī)上,刷臉購物、刷臉登機(jī)等等都不是什么新鮮事。
在中國,很多時(shí)候人臉識(shí)別技術(shù)的發(fā)展都被認(rèn)為是令人鼓舞的技術(shù)進(jìn)步,它的廣泛應(yīng)用也能引發(fā)很多人的自豪和稱贊。然而,在歐美國家,人臉識(shí)別技術(shù)正遭遇著越來越多的質(zhì)疑和限制。
今年5月,舊金山市通過決議,禁止警察等公權(quán)力機(jī)構(gòu)使用人臉識(shí)別技術(shù)。這項(xiàng)決議很有代表意義,因?yàn)榕f金山所在的硅谷灣區(qū)一直是數(shù)字科技創(chuàng)新的中心。隨后,和舊金山同屬加州的奧克蘭市,以及馬薩諸塞州的薩默維爾市(Somerville)也出臺(tái)了人臉識(shí)別禁令。在全國層面,兩位參議員提出了關(guān)于限制人臉識(shí)別技術(shù)應(yīng)用的法案,這項(xiàng)法案目前獲得了共和黨和民主黨兩黨議員的支持。眾議院也有議員正在準(zhǔn)備相關(guān)法案。
8月底,英國《金融時(shí)報(bào)》報(bào)道(https://www.ft.com/content/90ce2dce-c413-11e9-a8e9-296ca66511c9):歐盟正在考慮對人工智能技術(shù)進(jìn)行嚴(yán)格限制。在正在籌劃的監(jiān)管方案中,如果公權(quán)力機(jī)構(gòu)或者商業(yè)公司想要使用人工智能技術(shù),那么所有被牽涉到的歐盟公民就有權(quán)知曉:他(她)的人臉數(shù)據(jù)何時(shí)被使用了。
為何這些歐美國家和城市對這項(xiàng)新技術(shù)有著如此強(qiáng)烈的警惕?本期會(huì)員通訊,我們就來聊聊這個(gè)問題。
限制的對象:
不是個(gè)人,而是公權(quán)力和商業(yè)公司
首先要明確的是,這些針對人臉識(shí)別技術(shù)的禁令,不是禁止個(gè)人使用這項(xiàng)技術(shù),更不是禁止這項(xiàng)技術(shù)的發(fā)展。也就是說,你用自己的臉解鎖自己的iPhone,這完全不會(huì)受到限制。真正受到限制的,是公權(quán)力機(jī)構(gòu)(政府、警察等)以及商業(yè)公司對人臉識(shí)別技術(shù)的應(yīng)用。
這中間的一個(gè)核心邏輯是:消費(fèi)者自己使用人臉識(shí)別技術(shù)的時(shí)候,是自愿使用的,并且是知道自己的臉正在被識(shí)別的。但是,如果是公權(quán)力機(jī)構(gòu)在使用的話,比如警察使用這項(xiàng)技術(shù)在公共場所進(jìn)行監(jiān)控,那么公眾很可能并不知道自己的臉正在被拍攝、掃描、分析、比對、納入數(shù)據(jù)庫,即便知道也不可能把人臉識(shí)別系統(tǒng)關(guān)掉。這種差別,使得歐美國家普遍認(rèn)為:對公權(quán)力使用人臉識(shí)別技術(shù)要設(shè)一個(gè)高得多的門檻。
當(dāng)然,公權(quán)力機(jī)構(gòu)使用人臉識(shí)別技術(shù)可以帶來不少好處,比如提高破案率、降低犯罪率等。一個(gè)實(shí)際的案例是:去年6月,馬里蘭州的《The Capital Gazette》報(bào)社曾經(jīng)發(fā)生大規(guī)模槍擊案,造成5人死亡。警方在破案的時(shí)候,利用了人臉識(shí)別技術(shù)來鎖定犯罪嫌疑人。
但是,這些對于公共安全的好處,不足以抵消人們對這項(xiàng)技術(shù)被濫用的擔(dān)憂。美國公民自由聯(lián)盟(the American Civil Liberties Union,簡稱ACLU)是在倡導(dǎo)限制公權(quán)力機(jī)關(guān)使用這項(xiàng)技術(shù)方面最活躍的一家NGO。該機(jī)構(gòu)的律師Matt Cagle說,“這項(xiàng)技術(shù)讓政府獲得了前所未有的追蹤人們?nèi)粘I畹臋?quán)力。這樣的權(quán)力過大,和健康的民主制度并不相容?!彼J(rèn)為,舊金山的禁令能夠起到的作用,就是防止這項(xiàng)危險(xiǎn)的技術(shù)被用來對付公眾。(https://www.nyTImes.com/2019/05/14/us/facial-recogniTIon-ban-san-francisco.html)
Cagle律師還強(qiáng)調(diào),現(xiàn)在我們根本不知道政府和企業(yè)在多大范圍內(nèi)使用著這項(xiàng)新技術(shù),因?yàn)樗鼈円恢倍紝Υ吮C?,而公眾則經(jīng)常被蒙在鼓里,這是非常危險(xiǎn)的狀況。
簡單而言,這些歐美國家限制公權(quán)力機(jī)構(gòu)使用人臉識(shí)別技術(shù),就是為了防止一個(gè)壓迫性的監(jiān)控國家(surveillance state)的產(chǎn)生。這樣的國家也常被稱為“奧威爾式”(Orwellian)的國家——這種說法來自奧威爾的經(jīng)典小說《1984》。在小說中,老大哥通過電幕無時(shí)無刻不在監(jiān)視者人們的生活,支撐起一種恐怖的極權(quán)統(tǒng)治。
為了避免這種可怕的狀況成為現(xiàn)實(shí),這些國家愿意在一定程度上做出妥協(xié),不用人臉識(shí)別去追求破案率的提高。
與公權(quán)力機(jī)構(gòu)相比,商業(yè)公司看起來并沒有建立起“奧威爾式”統(tǒng)治的能力,為什么也要受到限制呢?
這主要是因?yàn)?,如果不對商業(yè)公司作出限制,那么它們可能出于商業(yè)利益的追求,大規(guī)模地收集人臉數(shù)據(jù),并且可能會(huì)在不經(jīng)過消費(fèi)者本人許可的情況下將這些數(shù)據(jù)出售、濫用。
很多人認(rèn)為,人臉數(shù)據(jù)屬于個(gè)人信息當(dāng)中最為敏感的生物識(shí)別數(shù)據(jù)(biometric data),被濫用造成的后果是最為嚴(yán)重的,應(yīng)該得到最高限度的保護(hù)。
人臉識(shí)別技術(shù)的誤差和偏見
這些歐美國家和城市對人臉識(shí)別技術(shù)做出限制,還有一個(gè)非常重要的原因:技術(shù)本身依然不成熟,有很多誤差,并且會(huì)造成對不同人群的歧視。
今年4月,一名18歲的美國大學(xué)生起訴了蘋果公司,指責(zé)蘋果在店內(nèi)使用人臉識(shí)別技術(shù),并且這項(xiàng)技術(shù)錯(cuò)誤地將他識(shí)別成了小偷,導(dǎo)致他莫名其妙收到傳票,后來還被警察逮捕,給他造成了嚴(yán)重的精神損失。這位大學(xué)生要求蘋果公司賠償10億美元。
蘋果公司否認(rèn)了這些指控。不論該案的判決如何,我們可以明確知道的是:目前的人臉識(shí)別技術(shù),確實(shí)可能造成“冤假錯(cuò)案”。
今年1月,ACLU測試了亞馬遜公司開發(fā)的人臉識(shí)別系統(tǒng)RekogniTIon,讓這個(gè)系統(tǒng)來識(shí)別美國議員的照片。結(jié)果,系統(tǒng)將多達(dá)28名議員識(shí)別成了罪犯。
尤其值得關(guān)注的是,在歐美國家,人臉識(shí)別技術(shù)對白人的識(shí)別準(zhǔn)確率要遠(yuǎn)遠(yuǎn)高于對有色人種(尤其是黑人)的識(shí)別準(zhǔn)確率,對男性的識(shí)別準(zhǔn)確率要高于對女性的識(shí)別準(zhǔn)確率。(https://www.theverge.com/2019/1/25/18197137/amazon-rekogniTIon-facial-recognition-bias-race-gender)
這樣的結(jié)果并不意外。在開發(fā)人臉識(shí)別技術(shù)的時(shí)候,研究者們用來訓(xùn)練機(jī)器的照片大多是白人男性,因此機(jī)器辨認(rèn)白人男性的能力更強(qiáng)。相比之下,由于缺乏辨認(rèn)黑人、女性的經(jīng)驗(yàn),機(jī)器也就更容易在識(shí)別少數(shù)族裔和女性的時(shí)候犯錯(cuò)。這種偏見的產(chǎn)生,是由于社會(huì)上既有的不平等,而它又會(huì)進(jìn)一步加強(qiáng)不平等的狀況,因?yàn)橐坏┚齑笠?guī)模使用此技術(shù),弱勢群體陷入冤假錯(cuò)案的機(jī)率就會(huì)更高。
這種寫在技術(shù)里面的偏見,常常容易被人們忽視,因?yàn)槿藗內(nèi)菀捉邮苓@樣的觀點(diǎn):人是有感情的、容易產(chǎn)生偏見的,但機(jī)器是沒有感情的,所以應(yīng)該是客觀公正的。然而,正如此前的新聞實(shí)驗(yàn)室會(huì)員通訊反復(fù)提到的,技術(shù)是由人在特定的社會(huì)條件下開發(fā)的,技術(shù)本身也會(huì)帶有深刻的偏見。如果我們將一切都交給看似公正的機(jī)器,以為這樣就萬事大吉了,那么可能導(dǎo)致的結(jié)果便是社會(huì)不平等的進(jìn)一步加劇、公正的進(jìn)一步喪失。
技術(shù)是由人在特定的社會(huì)條件下開發(fā)的,技術(shù)本身也會(huì)帶有深刻的偏見。
基于倫理的人工智能發(fā)展
正是因?yàn)橐陨蟽蓚€(gè)方面的原因,不少歐美國家和城市都對人臉識(shí)別技術(shù)的應(yīng)用做出了嚴(yán)格的限制。
舊金山在通過限制法令的同時(shí),還通過了另一項(xiàng)涵蓋內(nèi)容更廣的規(guī)定。根據(jù)這項(xiàng)新規(guī)定,舊金山市的公權(quán)力部門要想購買監(jiān)控技術(shù),就必須提前申請獲得批準(zhǔn)。這些監(jiān)控技術(shù)包括自動(dòng)的車牌掃描儀、帶有攝像頭的無人機(jī)等等。
科技媒體Recode的一篇文章(https://www.vox.com/recode/2019/5/14/18623897/san-francisco-facial-recognition-ban-explained)指出:美國對于數(shù)字隱私的立法速度是緩慢的,有一部分美國人看上去愿意為了便利而犧牲隱私(而且基本上都是向企業(yè)提供個(gè)人數(shù)據(jù),而非政府);但是,人臉識(shí)別這項(xiàng)技術(shù)很可能戳中了美國文化的敏感點(diǎn),那就是對個(gè)人自由權(quán)利的看重,對政府濫用權(quán)力的恐懼。因此,美國在針對人臉識(shí)別的立法方面要快得多。
而對于歐盟來說,對人臉識(shí)別技術(shù)的限制,是一項(xiàng)更為宏大的監(jiān)管計(jì)劃的一部分。這一計(jì)劃,可以稱為“基于倫理的人工智能法規(guī)”(ethically based laws governing AI)。此前的會(huì)員通訊也曾提到,歐盟在數(shù)字技術(shù)的發(fā)展方面不算領(lǐng)先,但在針對數(shù)字技術(shù)的監(jiān)管方面走在世界前列。
當(dāng)然,歐盟發(fā)展監(jiān)管的目的并不是打壓新技術(shù),而是希望新技術(shù)能夠盡可能造福社會(huì),而不是帶來副作用。在歐盟的立法者看來,對人工智能技術(shù)作出限制,其實(shí)可以使得公眾對這項(xiàng)技術(shù)的信任度和接受度提高,這樣一來,最終實(shí)際上是有利于這項(xiàng)技術(shù)的健康發(fā)展和妥善應(yīng)用。
根據(jù)《金融時(shí)報(bào)》的報(bào)道,歐盟希望通過這方面的立法,樹立一種“人工智能監(jiān)管的世界標(biāo)準(zhǔn)”,這種標(biāo)準(zhǔn)可以通過清晰、可預(yù)測、統(tǒng)一的原則,充分保護(hù)個(gè)人的權(quán)益。