我們對于AI威脅的擔憂從未停歇,但這并不妨礙威脅不斷加劇。
事實上,不論專家們?nèi)绾涡沟桌锏睾粲酰芏嗳斯ぶ悄芪淦骱蛧理椖慷荚诳祚R加鞭地推進,美國作為人工智能的橋頭堡,這個棘手的問題很快擺在了決策者的辦公桌上,谷歌、微軟、亞馬遜等科技巨頭無一幸免……
那么,到底是誰出了錯?科技巨頭遭到連環(huán)抵制又將對AI行業(yè)帶來哪些影響?面臨挑戰(zhàn)的AI道德又將何去何從?
1
首先引起員工強烈反彈的是“不作惡”的谷歌,谷歌云首席科學家李飛飛在政府AI項目簽訂之初就擔心:這是媒體損壞谷歌聲譽的絕佳機會,你們大概聽說過伊隆·馬斯克的評論,他認為人工智能可能引發(fā)第三次世界大戰(zhàn),我不知道如果媒體開始渲染谷歌秘密開發(fā)人工智能武器,或者用人工智能為國防行業(yè)開發(fā)武器會發(fā)生什么事情。
然而,令谷歌管理層揪心的事情還是發(fā)生了。從今年三月份開始,就有媒體曝出谷歌參與政府的AI項目訂單,將人工智能技術應用于戰(zhàn)爭中的無人機控制,彼時引發(fā)了數(shù)千名谷歌員工的聯(lián)名上書,谷歌云CEO戴安·格林(Diane Greene)為了安穩(wěn)員工情緒,試圖敷衍過去,表示合同其實只有900萬美金。她希望大家心里明白,900萬美金的小項目對于谷歌這樣的龐然大物來說確實不值一提了。
The Intercept于3月7日報道了谷歌悄悄獲得國防部的新算法戰(zhàn)爭試驗項目
不過,隨著The Intercept的爆料,谷歌管理層的敷衍做法沒有得逞,爆料顯示,谷歌預計的項目收入從開始的15000美金增加到了2.5億美金,如果900萬是小項目,那2.5億美金的項目則牽動了整個谷歌。
接下來發(fā)生的事情大家應該知道了,這件事在谷歌內(nèi)部迅速蔓延,隨即爆發(fā)了更大規(guī)模的抗議,更有很多員工以離職相威脅。
眼看事態(tài)無法控制,谷歌管理層終于在事情爆發(fā)的三個月后作出讓步,谷歌CEO皮查伊在官網(wǎng)發(fā)布了一篇名為《Google人工智能:我們的原則》的文章,并宣布不再與國防部續(xù)約合同。
皮查伊表示,人工智能技術的應用目標應該是:對社會有益;避免制造或加劇偏見;提前測試以保證安全;由人類擔責;保證隱私;堅持科學高標準。
而不應該將人工智能技術應用于:制造整體傷害之處,如一項技術可能造成傷害,我們只會在其好處大大超過傷害的情況下進行研發(fā),并提供安全保護措施;武器或其他用于直接傷害人類的產(chǎn)品;收集使用信息,以實現(xiàn)違反國際規(guī)范的監(jiān)控的技術;目標違反被廣泛接受的國際法與人權(quán)原則的技術。
他們希望以這些框架為準繩,避免谷歌的人工智能技術再次觸碰紅線。
2
無獨有偶,另一位巨頭亞馬遜的政府人臉識別項目同樣遭到抵制。
據(jù)Futurism的報道,早在2016年亞馬遜就推出了Rekognition,它是一種人工智能驅(qū)動的面部識別軟件,掃描視頻或照片來檢測人或物體,該技術可以分析一個人的臉部以確定他的情緒,還可以在一張照片中識別出100張臉孔,并在整個視頻中跟蹤一個人,即使他們離開并重新進入視野。
亞馬遜官網(wǎng)對于Rekognition技術的介紹,圖為人臉識別
換句話說,這是一個強大的監(jiān)控工具,政府機構(gòu)和執(zhí)法機構(gòu)顯然是亞馬遜的目標客戶,如今,在美國反對科技公司參與政府AI項目的浪潮下,亞馬遜的項目也不可避免的卷了進來。
目前,美國公民自由聯(lián)盟(ACLU)華盛頓基金會的署名信和亞馬遜19位股東的簽署信已經(jīng)呈上亞馬遜CEO貝索斯的辦公桌。
但這位被稱為世界上“最糟糕”的老板還沒有表態(tài)。
3
當然,這樣的糟心事兒也被剛從“失去移動互聯(lián)網(wǎng)”中緩過勁來的微軟趕上了,而且微軟的AI項目抵制危機來的更加直接。
事件起因是在美國當?shù)貢r間6月24日,美國總統(tǒng)特朗普發(fā)推:我們不能讓這些人侵入我們的國家,當有人來了,我們必須立即在沒有法院和立案的情況下,把他們送回他們來的地方。
“零容忍”大棒之下,美國國土安全部證實,在4月19日到5月31日期間,美國邊境巡邏隊已經(jīng)把近2000名非法移民兒童從他們的父母身邊帶走,而子女與父母走的是完全截然不同的兩種程序——對兒童提供必要的幫助,成人則關押起來等待被直接遣返。
《時代》周刊雜志封面:“零容忍”邊境政策下哭泣的兩歲孩子和特朗普
事件發(fā)生后,指責甚至謾罵鋪天蓋地,最引人關注的是五位前第一夫人的發(fā)聲,她們紛紛指責特朗普政府的不人道行徑,更有很多州政府宣布不會向美國西南邊境派駐國民警衛(wèi)隊。
截止目前,雖然特朗普簽署了不再將兒童從非法移民手中奪走的政府文件,但該事件還在持續(xù)發(fā)酵,民眾憤怒的對象燒向了為政府提供AI技術的微軟公司,資料顯示,微軟為移民和海關執(zhí)法局(ICE)提供云服務和人臉識別技術,他們被指是ICE的幫兇。
同樣,微軟的員工也不買帳,他們紛紛站出來發(fā)聲指責,并且有人說:是時候認真考慮離職的事情了。
面對壓力,微軟官方的回應顯得拖泥帶水,沒有谷歌那樣果斷,微軟在針對該事件的聲明中表示,我們不知道政府用我們的技術干了這樣的事情,我們也沒有和ICE合作破壞別人的家庭,發(fā)生這樣的事我們也很驚訝。
4
你可能不清楚人工智能技術,但你一定聽說過AI威脅論,霍金、馬斯克們的預言和警醒以及《西部世界》這類AI倫理電影都輸出著這樣的觀點,他們擔憂人類被人工智能替代、統(tǒng)治甚至消滅。
人工智能威脅真的到了最緊迫的時候?
上文提到的擔憂應該是AI威脅的2.0版本了,其實,在更多時候大家討論的是AI如果奪取我們工作應該怎么辦,據(jù)布魯金斯學會(the Brookings Institution)研究人員進行的一項調(diào)查顯示,52%的被調(diào)查者相信,30年內(nèi)機器人將進化到可以完成目前人類大部分活動的階段。民意調(diào)查還發(fā)現(xiàn),對于美國政府是否應該設立一個聯(lián)邦機器人委員會(Federal Robotics Commission)來管理機器人的開發(fā)和使用,有29%至32%的人持支持態(tài)度。
如果說1.0版本的AI威脅大家還可以坐下來心平氣和的爭論,那現(xiàn)在美國討論的AI威脅則是真正意義上的威脅,它運用到戰(zhàn)爭和統(tǒng)治當中,進而威脅人類的生命權(quán)以及自由權(quán),后果不堪設想。
你可能不禁要問,谷歌、亞馬遜、微軟發(fā)生這樣的事情,到底是誰錯了?我們看看,其中的參與方包括政府、AI巨頭、員工、普通民眾,仔細琢磨好像都沒有錯——政府出于安全目的(侵略行為另當別論);AI巨頭出于商業(yè)利益目的;員工和普通民眾出于擔憂AI技術泛濫,保護人類不受AI技術侵犯目的。
筆者認為,這里的關鍵是美國政府的意志,他們在制定國防戰(zhàn)略和商業(yè)訂單的時候,需要在頂層設計時將AI倫理問題考慮進去,讓AI技術在合理的地方發(fā)揮價值,如果微軟的技術沒有幫助政府將偷渡者“骨肉分離”,而是進行城鎮(zhèn)布控和抓捕逃犯,那民眾的反彈一定會微小很多
同樣,如果谷歌的技術沒有用于無人機攻擊而是民用領域,那員工肯定舉雙手贊成,而谷歌的AI項目事件特殊性還在于,戰(zhàn)爭是有原罪的,它一定是建立在流血的基礎上。
畢竟,任何的AI威脅言論都是危言聳聽,除非有人故意指使,將AI武器嚴格管控起來,就像核武器那樣,人類還需要一點時間。
在此之前,我們就寄希望于人類社會的容錯機制吧。