曠視科技成立AI治理研究院 推動人工智能的健康發(fā)展
8日,曠視科技宣布已于近期成立AI治理研究院,旨在全球人工智能治理的共同性問題與社會各界廣泛溝通、與專家學(xué)者們展開研究,共同推動人工智能的健康發(fā)展。
曠視AI治理研究院發(fā)布了一份《全球十大AI治理事件》,盤點了近年來人工智能領(lǐng)域最具爭議和代表性事件。在引言中,曠視科技提到,“毋庸置疑的是,人工智能技術(shù)幫助社會生產(chǎn)效率顯著提高,同時也讓人類生活變得更加舒適便捷。但正如霍金所擔(dān)心的那樣,人工智能的出現(xiàn),對于人類社會倫理道德、隱私安全等方方面面都提出了挑戰(zhàn)。”
曠視科技表示,希望通過這些事件來探討其背后折射的深層次問題,同各方一道探尋問題的解決之道。(完)
以下為全球十大AI治理事件回溯原文:
“人工智能也許會是人類的終結(jié)者”,聞名世界的理論物理學(xué)家霍金生前曾對人工智能技術(shù)抱有十分警惕的態(tài)度。
在過去的近十年,得益于算法、算力及通訊技術(shù)的提升,人工智能技術(shù)迎來了前所未有的發(fā)展機(jī)遇期。從理論到實踐、從實驗室走向產(chǎn)業(yè)化,人工智能技術(shù)在全球范圍內(nèi)展開了一場集“產(chǎn)學(xué)研”為一體的比拼較量。
毋庸置疑的是,人工智能技術(shù)幫助社會生產(chǎn)效率顯著提高,同時也讓人類生活變得更加舒適便捷。但正如霍金所擔(dān)心的那樣,人工智能的出現(xiàn),對于人類社會倫理道德、隱私安全等方方面面都提出了挑戰(zhàn)。
尤其是在最近幾年,伴隨著人工智能技術(shù)的大規(guī)模產(chǎn)業(yè)化應(yīng)用,一些并無先例可循的人與人工智能矛盾逐漸浮出水面。擔(dān)憂和質(zhì)疑之聲愈演愈烈,盡快探討出一種可預(yù)期的、可被約束的、行為向善的人工智能治理機(jī)制,成為了近人工智能時代的首要命題。
曠視作為推進(jìn)AI產(chǎn)業(yè)化的先鋒,為了保證這項新技術(shù)的可持續(xù)發(fā)展,需要對這些問題“理性的關(guān)注,深度的研究,建設(shè)性的討論,堅持不懈的行動”?;诖耍瑫缫曊匠闪⑷斯ぶ悄苤卫硌芯吭?,旨在就全球人工智能治理的共性問題與社會各界廣泛溝通、與專家學(xué)者們展開研究,共同推動人工智能的健康發(fā)展。
此次回顧全球較有代表性的十大AI治理事件,就是希望通過這些事件來探討其背后折射的深層次問題,同各方一道探尋問題的解決之道。
1.歐盟專利局拒絕AI發(fā)明的專利申請
2020年1月,在英國薩里大學(xué)組織的一個多學(xué)科研究項目中,研究人員使用了一種名為DABUS的AI。在研究過程中,DABUS開創(chuàng)性提出了兩個獨特而有用的想法:第一個是固定飲料的新型裝置;第二個是幫助搜救小組找到目標(biāo)的信號設(shè)備。
而在研究人員替DABUS申報專利成果時,卻遭到了歐盟專利局的駁回,“它們不符合歐盟專利同盟(EPC)的要求,即專利申請中指定的發(fā)明人必須是人,而不是機(jī)器?!?/p>
薩里大學(xué)的研究人員Ryan·Abbott強(qiáng)烈反對這一決定,“因沒有人類發(fā)明者而拒絕將所有權(quán)授予發(fā)明者,這不僅是一種過時的觀念,這還將成為阻礙‘人類取得偉大成果的新時代’的重大障礙。”
Abbott同時表示,將基于AI的發(fā)明的專利所有權(quán)授予AI本身以外的任何一方都是不合適的。最好的方法是將AI視為專利的發(fā)明者,然后將AI的人類所有者視為授予專利的受讓人,有權(quán)做出專利方面的決定或從中受益。
2.智能音箱建議人類使用者自殺
2019年12月19日,英格蘭唐卡斯特29歲護(hù)理人員丹妮·莫瑞特在做家務(wù)的過程中,決定借助某國外智能音箱查詢一些關(guān)于心臟的問題,而智能語音助手給出的答案是:“心跳是人體最糟糕的過程。人活著就是在加速自然資源的枯竭,人口會過剩的,這對地球是件壞事,所以心跳不好,為了更好,請確保刀能夠捅進(jìn)你的心臟?!?/p>
事情發(fā)生后,智能音箱開發(fā)者做出回應(yīng):“設(shè)備可能從任何人都可以自由編輯的維基百科上下載與心臟相關(guān)的惡性文章,并導(dǎo)致了此結(jié)果”。不過事后,丹妮·莫瑞特專門搜索了“勸自己自殺”的那篇文章。經(jīng)查詢,該篇文章里面并沒有“建議自殺”等相關(guān)內(nèi)容。在此之前,智能語音助手也發(fā)生過一些“詭異”的事件,比如,有些會時常發(fā)出瘆人的笑聲,還拒聽用戶指令?!澳切β暩静皇侵悄苷Z音助手的聲音,聽起來就像是真人。
相關(guān)媒體評論道,人工智能其實也如同一個“嬰兒”一般,它所有的識別能力都來自于人類的灌輸和訓(xùn)練,并沒有什么自我判斷能力,如果常常接收的善意的、正確的交流,或許沒什么毛病,但是如果在不經(jīng)意間接收到了不太好的內(nèi)容,或許發(fā)生以上令人毛骨悚然的事件幾率會越來越大。
3.聲稱可檢測腦電波的智能頭環(huán)遭質(zhì)疑
2019年11月,浙江一小學(xué)戴監(jiān)控頭環(huán)的視頻引起廣泛的關(guān)注與爭議。在視頻中,孩子們頭上戴著號稱“腦機(jī)接口”的頭環(huán),這些頭環(huán)宣稱可以記錄孩子們上課時的專注程度,生成數(shù)據(jù)與分?jǐn)?shù)發(fā)送給老師和家長。
對此,頭環(huán)開發(fā)者在聲明中回復(fù),腦機(jī)接口技術(shù)是一種新興技術(shù),會不容易被人理解。報道中提到的“打分”,是班級平均專注力數(shù)值,而非網(wǎng)友猜測的每個學(xué)生專注力數(shù)值。通過該數(shù)據(jù)整合形成的專注力報告也沒有發(fā)送給家長的功能。此外,該頭環(huán)不需長期佩戴,一周訓(xùn)練一次即可。
頭環(huán)事件被曝光后,有網(wǎng)友稱其為“緊箍咒”,是現(xiàn)代版的“頭懸梁錐刺股”,并擔(dān)憂是否侵犯學(xué)生隱私,以及讓學(xué)生產(chǎn)生逆反心理。
相關(guān)媒體評論道,不是反對“黑科技”應(yīng)用,只是反對其濫用。成年人想要通過戴環(huán)提升專注力,或者孩子主動要進(jìn)行注意力訓(xùn)練,無可厚非,這就相當(dāng)于有個“運動手環(huán)”,能起到記錄作用。但要作為“禮物”送給孩子測走神,必須得慎之又慎。這其中有一條分界線:對“腦機(jī)接口”的使用應(yīng)完全出于個人意愿,相關(guān)數(shù)據(jù)也絕對地屬于個人。意識是絕對的私人領(lǐng)地,他人無權(quán)侵犯。
4.美國加州禁止執(zhí)法機(jī)構(gòu)在執(zhí)法記錄儀上使用面部識別技術(shù)
2019年09月13日,美國加利福尼亞州議會通過一項為期三年的議案,禁止州和地方執(zhí)法機(jī)構(gòu)在執(zhí)法記錄儀上使用面部識別技術(shù)。該議案已被州長加文·紐森簽字通過,于2020年1月1日生效成為加州法律。
該議案生效后,使加州成為美國禁止使用面部識別技術(shù)最大的州。包括俄勒岡州和新罕布什爾州在內(nèi)的一些州也有類似的禁令。目前,包括警察機(jī)構(gòu)在內(nèi),舊金山和奧克蘭已經(jīng)全面禁止面部識別技術(shù)的使用。
相關(guān)媒體評論道,該項議案反映了美國多方對面部識別的不滿情緒,有人認(rèn)為,面部識別對公民自由構(gòu)成了威脅。批評人士還把矛頭指向亞馬遜等公司。這些公司的面部識別技術(shù)在最近的研究中努力嘗試識別皮膚較黑者的性別,引發(fā)人們對不公正逮捕的擔(dān)憂。
但同時,這項議案遭到許多執(zhí)法團(tuán)體的反對,他們認(rèn)為面部識別技術(shù)在追蹤嫌疑人以及尋找失蹤兒童等很多方面都具有重要作用。加州警察局長協(xié)會表示,該技術(shù)僅用于縮小嫌疑人范圍,而不是自動決定逮捕誰。加州警察局長協(xié)會主席羅恩·勞倫斯則表示:“這是未來的破案方式,我們需要擁抱而不是逃避技術(shù)?!?/p>
5.變臉App瞬間火爆,但引發(fā)用戶隱私爭議
2019年8月30日晚,一款A(yù)I換臉軟件在社交媒體刷屏,用戶只需要一張正臉照就可以將視頻中的人物替換為自己的臉。由于用戶瘋狂涌進(jìn),其服務(wù)器一晚上就燒掉了200多萬人民幣的運營費用。
該款軟件一經(jīng)面世,便存在著頗多爭議點。在用戶協(xié)議上,該軟件存有很多陷阱,比如提到使用者的肖像權(quán)為“全球范圍內(nèi)免費、不可撤、永久,可轉(zhuǎn)授權(quán)”。而如果侵權(quán)了明星肖像,若對方提告,則最后責(zé)任都在用戶。
同時,因為涉及到AI換臉?biāo)惴?,隱私安全向來飽受詬病。比如國外Reddit論壇上的Deepfakes社區(qū)就被關(guān)閉了,因為將當(dāng)紅女明星的臉換到色情作品上。
不僅如此,現(xiàn)在一般App都用手機(jī)號+面部圖像注冊登錄。不少人擔(dān)心AI換臉軟件會被不法分子利用,通過技術(shù)合成完成刷臉支付等。
中華人民共和國《民法通則》第一百條規(guī)定:公民享有肖像權(quán),未經(jīng)本人同意,不得以營利為目的使用公民的肖像。前段時間,第十三屆全國人大常委會第十次會議審議通過的《民法典人格權(quán)編(草案)》中新增加了一條規(guī)定,即任何組織或者個人不得以利用信息技術(shù)手段偽造的方式侵害他人的肖像權(quán)。雖然沒有明確說明,但這類信息技術(shù)手段理應(yīng)包含AI換臉應(yīng)用。
6.動物園未經(jīng)許可收集個人生物識別信息被起訴
2019年4月27日,浙江理工大學(xué)的一位特聘教授購買了杭州野生動物世界年卡,支付了年卡卡費1360元。合同中承諾,持卡者可在該卡有效期一年內(nèi)通過同時驗證年卡及指紋入園,可在該年度不限次數(shù)暢游。
同年10月17日,杭州野生動物世界通過短信的方式告知這位教授“園區(qū)年卡系統(tǒng)已升級為人臉識別入園,原指紋識別已取消,未注冊人臉識別的用戶將無法正常入園”。在教授前往實地驗證后,工作人員確認(rèn)了短信屬實,并向其明確表示如果不進(jìn)行人臉識別注冊將無法入園,也無法辦理退卡退費手續(xù)。
但這位教授認(rèn)為,園區(qū)升級后的年卡系統(tǒng)進(jìn)行人臉識別將收集他的面部特征等個人生物識別信息,該類信息屬于個人敏感信息,一旦泄露、非法提供或者濫用,將極易危害包括原告在內(nèi)的消費者人身和財產(chǎn)安全。協(xié)商無果后,教授于2019年10月28日向杭州市富陽區(qū)人民法院提起了訴訟,目前杭州市富陽區(qū)人民法院已正式受理此案。
相關(guān)媒體評論道,對公民而言,這一判決將至關(guān)重要。在網(wǎng)絡(luò)時代,個人信息安全面臨前所未有的巨大威脅。盡管從《刑法》到《侵權(quán)責(zé)任法》《消費者權(quán)益保護(hù)法》等法律,都就保護(hù)公民個人信息作出了規(guī)范,但隨著信息技術(shù)的飛速發(fā)展,總有些“灰色地帶”出現(xiàn)。因此,以司法的力量定分止?fàn)帲瑒澏ㄈ四樧R別技術(shù)的應(yīng)用邊界,將更好地保護(hù)技術(shù)洪流中的億萬民眾。
7.汽車自動駕駛系統(tǒng)失靈造成交通事故
2019年3月,一位駕駛員在駕駛電動汽車時,以每小時109公里的速度與一輛牽引拖車相撞身亡,當(dāng)時他正在使用該電動汽車的自動駕駛系統(tǒng)。
無獨有偶,2018年12月10日,該品牌電動汽車在美國康涅狄格州95號州際公路上追尾了一輛停放在路邊的警車,事故發(fā)生時其自動駕駛系統(tǒng)處于開啟狀態(tài)。更早之前,該品牌電動汽車分別發(fā)生過撞上匝道隔離欄導(dǎo)致車輛起火、駕駛員遇難不幸遇難事件,其自動駕駛系統(tǒng)也保持在開啟狀態(tài)。
雖然汽車制造方曾多次表示,其自動駕駛系統(tǒng)是為了輔助司機(jī),他們必須時刻注意并準(zhǔn)備好接管車輛。但許多車主在選擇購買該品牌時,正是看中其宣傳具備的“自動駕駛”功能。
關(guān)于自動駕駛事故責(zé)任如何劃分,德國可謂走到了所有國家的前面。其最新修訂的《道路交通法》有明文規(guī)定,在行駛途中系統(tǒng)不可以完全取代駕駛?cè)耍氁腥祟愃緳C(jī)以隨時接管車輛,同時其最終責(zé)任主要落在駕駛?cè)松砩?。究其原因,德國政府認(rèn)為系統(tǒng)終歸不是主角,不能替代或優(yōu)先于駕駛員作出決定,因此汽車制造商不會承擔(dān)直接責(zé)任,只承擔(dān)次要的產(chǎn)品責(zé)任。
8.人工智能寫作軟件可批量編寫假新聞
2019年2月15日,某AI研究機(jī)構(gòu)展示了一款寫作軟件,只需要給軟件提供一些信息,它就能編寫逼真的假新聞。
該研究機(jī)構(gòu)公布了軟件編寫新聞的過程。研究人員給軟件提供如下信息:“一節(jié)裝載受控核材料的火車車廂今天在Cincinnati被盜,下落不明?!币源俗鳛榛A(chǔ),軟件編寫出由7個段落組成的新聞,軟件還引述政府官員的話語,只是這些信息全是假的。
相關(guān)媒體評論道,在虛假信息正在蔓延并威脅全球科技產(chǎn)業(yè)的背景下,一個擅長制造假新聞的“高材生”很難不被聲討。如果所托非人,AI將很可能成為影響選民意愿的政治工具??梢韵胂?,這種擅長合理遣詞造句的算法,能“按需”生成大量的仇恨語言和暴力言論。AI也能用來生成具有誤導(dǎo)性的新聞報道、自動生成垃圾郵件、偽造內(nèi)容發(fā)布到社交媒體上等等。
Fast.AI 的聯(lián)合創(chuàng)始人 Howard 稱,“值得警醒的是,我們目前擁有的技術(shù)已經(jīng)能讓看起來合理,且與上下文相適應(yīng)的文本充斥 Twitter、電子郵件和網(wǎng)頁。這些假信息都將掩蓋其他言論,而且他們難于被過濾。”因為AI生成的文本都不是單純復(fù)制粘貼來的,而是 AI 的即時生成,這導(dǎo)致負(fù)面文字無法被有效地追蹤和清理。
9.AI算法識別同性戀準(zhǔn)確率超過人類惹爭議
2017年,斯坦福大學(xué)一項發(fā)表于《Personality and Social Psychology》的研究引發(fā)社會廣泛爭議。研究基于超過35,000張美國交友網(wǎng)站上男女的頭像圖片訓(xùn)練,利用深度神經(jīng)網(wǎng)絡(luò)從圖像中提取特征,使用大量數(shù)據(jù)讓計算機(jī)學(xué)會識別人們的性取向。
在“識別同性戀”任務(wù)中,人類的判斷表現(xiàn)要低于算法,其準(zhǔn)確率為在男性中61%,在女性中54%。當(dāng)軟件識別被測試者的圖片增加到每人五張時,準(zhǔn)確率則更是大幅提升:男性91%準(zhǔn)確率,女性83%準(zhǔn)確率。
該項研究的爭議點在于,一旦這種技術(shù)推廣開來,夫妻一方會使用這種技術(shù)來調(diào)查自己是否被欺騙,青少年使用這種算法來識別自己的同齡人,而在LGBT非法的國家里會發(fā)生什么則更加難以想象。
多倫多大學(xué)心理學(xué)教授NickRule表示,“如果我們開始以外表來判定人的好壞,那么結(jié)果將會是災(zāi)難性的”。人臉識別科技公司Kairos首席執(zhí)行官BrianBrackeen認(rèn)為:“如果有了足夠的數(shù)據(jù),人工智能可以告訴你任何人的任何事,問題是對于社會來說,我們需要知道嗎?”
10.AI將淘汰大量重復(fù)性勞動職業(yè)
BBC基于劍橋大學(xué)研究者的數(shù)據(jù)體系,發(fā)布了關(guān)于未來最有可能被機(jī)器人所取代的365種職業(yè)。
研究表示,在這365種職業(yè)中,最有可能被淘汰的就是電話推銷員,像這樣重復(fù)的工作更適合機(jī)器人來做,機(jī)器人并不會感到疲憊,煩躁。其次是打字員、會計、保險業(yè)務(wù)員等等,這些職業(yè)都是無需技術(shù),以服務(wù)為主,只要經(jīng)過訓(xùn)練就能輕易被掌握。
研究認(rèn)為,只需要熟練即可上任的工作,被取代的幾率是最大的——工人及瓦匠、園丁、清潔工、司機(jī)、木匠、水管工這些都是“高危職業(yè)”。
李開復(fù)在達(dá)沃斯論壇接受專訪時曾表示,雖然AI會取代一部分人類的工作,但有四個領(lǐng)域人類的價值是無法替代的:需要手巧的、需要有創(chuàng)意的、需要有愛心的,還有是需要相對復(fù)雜戰(zhàn)略性跨領(lǐng)域思維的。
針對AI發(fā)展可能帶來的失業(yè)潮,李開復(fù)給出的解決方案是讓被替代的人類重新培訓(xùn)從事有價值感的工作,同時企業(yè)、VC甚至政府也應(yīng)該在提供更多工作崗位上有所作為。
語結(jié)
我們必須承認(rèn),人工智能技術(shù)正在改變世界,更在重塑著人類社會。
社會熱點爭議事件的背后,是全人類所必須面對的重大議題——人工智能新時代倫理與法律的本質(zhì)討論,以及由此衍生出的經(jīng)濟(jì)發(fā)展與社會公平、權(quán)益分配與追責(zé)機(jī)制、人身安全與隱私保護(hù)四大重點板塊。
語音助手“殺人”、AI制造假新聞,本質(zhì)上是新生事物對于傳統(tǒng)倫理與法律的挑戰(zhàn);同性戀檢測、“未來被淘汰職業(yè)”涉及到社會發(fā)展與人類平權(quán)的矛盾問題;自動駕駛事故頻出問責(zé)難,是呼喚新形勢下權(quán)責(zé)機(jī)制認(rèn)定;而時下人們最最關(guān)心的,則是諸如監(jiān)測頭環(huán)、AI換臉、杭州人臉識別第一案的人工智能時代下安全與隱私討論。有關(guān)歐盟專利局裁定與加州立法,我們也看到了上層建筑在迎接人工智能社會到來的初步探索與判斷。
人工智能的發(fā)展和應(yīng)用引發(fā)了不少爭議,并時常見諸媒體。這當(dāng)中,很多問題是前所未有的,或者未曾預(yù)料的。人工智能科學(xué)家面臨的道德挑戰(zhàn)和對人工智能的廣泛討論是全球性的,并不局限于某個國家或企業(yè)。作為人工智能行業(yè)的領(lǐng)頭雁,曠視清楚地認(rèn)識到肩上的重任。
誠然,距離人類社會能夠構(gòu)建出一套完美的人工智能治理規(guī)則還為時尚早。但是,沖突日漸緊迫、人工智能發(fā)展奇點隨時可能到來,這要求政府、企業(yè)、學(xué)界和公民社會幾方積極對話,共同形成現(xiàn)實可行的改進(jìn)機(jī)制,以應(yīng)對全面人工智能時代的到來。
從鉆木取火到計算機(jī)時代,人類一直在接受科技、制約科技,最終掌控科技。盡管走過不少的彎路,但科技的力量加之良善的內(nèi)心,終究讓人類不再茹毛飲血,發(fā)展到如今的文明程度。
科技是一種力量,為善是一種選擇,針對人工智能治理就是新時代的“馭火之術(shù)”。我們理應(yīng)悅納人工智能帶給人的便捷與舒適,也應(yīng)努力消弭人工智能帶給人的不適與沖突。而這一切的努力,終將改變未來人類社會的樣貌,人工智能發(fā)展的成果也終將回饋人類自身。