AI的達(dá)摩克利斯之劍:隱私與安全的遠(yuǎn)慮近憂?
中國已經(jīng)成為世界上人工智能發(fā)展最快的國家之一,部分指標(biāo)已居于世界領(lǐng)先地位。但在AI飛速發(fā)展的過程中,技術(shù)作為雙刃劍引發(fā)的副作用同樣也不可忽視。
諸如《銀河漫游》《星際穿越》等一些科幻電影中,機(jī)器發(fā)展到一定階段往往人和產(chǎn)生紛繁的利益糾葛,甚至造成不可挽回的生化危機(jī)。
假設(shè)AI發(fā)展到可以取代人的部分功能時,其可能引起的安全與倫理爭議成為我們現(xiàn)在不可以回避的問題。
我們現(xiàn)在該如何界定人工智能?人工智能應(yīng)該在怎樣安全的框架下發(fā)展?怎樣才是理想的人工智能準(zhǔn)則?
論道AI安全與倫理主題沙龍?jiān)谇迦A科技園成功舉辦。來自AI屆的網(wǎng)紅大佬中國科學(xué)院院士、清華大學(xué)人工智能研究院院長張鈸,中國人民大學(xué)高瓴人工智能學(xué)院院長文繼榮,搜狐網(wǎng)產(chǎn)品技術(shù)總監(jiān)楊田博士展開了熱烈的思辨。此外,清華大學(xué)副教授劉知遠(yuǎn),搜狐集團(tuán)招聘負(fù)責(zé)人付卓艷也作為嘉賓參加了本次會議,一起探尋AI安全與倫理等問題的解決之道。
目前離真正想象的AI狀態(tài)還較遠(yuǎn)張鈸院士表示,我們一直認(rèn)為機(jī)器如果發(fā)展到和人類不相上下的地步是很遙遠(yuǎn)的,盡管人工智能技術(shù)看起來并不是十分智能,但是已給我們帶來很大的危險(xiǎn)性。
因此,人工智能究竟應(yīng)該如何發(fā)展?有了這些技術(shù)我們?nèi)绾斡茫?/p>
“什么叫做情感,什么叫美,美是主觀的還是客觀的。實(shí)際很多東西涉及到哲學(xué)上的考慮。人工智能發(fā)展如果一個新思路的發(fā)展,其實(shí)哲學(xué)應(yīng)該走在最前面。大家不要認(rèn)為這些都是無稽之談,實(shí)際它背后包含哲學(xué)的思考,這些思考我們相對來講做科學(xué)的人做技術(shù)的人特別做工程的人考慮很少。” 張鈸院士說。
從目前的產(chǎn)品角度,楊田博士表示現(xiàn)在實(shí)際看到的人工智能產(chǎn)品,和我們理想的人工智能差距還比較大大。
“現(xiàn)在感知到的人工智能產(chǎn)品基本都是由最優(yōu)化問題衍生出來的,像張?jiān)菏克f,我們現(xiàn)階段想讓人工智能具備人一樣的情感,作為人工智能的訓(xùn)練者我們這些人本身也不知道情感究竟是什么,人是怎么樣表達(dá)的,所以可以肯定的是,至少現(xiàn)在我們不能夠訓(xùn)練出一個人工智能的機(jī)器具有跟人一樣的情感?!?/p>
雖然目前做出具有人類情感的AI還比較遙遠(yuǎn),但是要用機(jī)器模擬出人的現(xiàn)象和行為,以現(xiàn)在的技術(shù)來說卻基本可以實(shí)現(xiàn)。被人工智能的機(jī)器去利用弱點(diǎn),反過來被機(jī)器所影響的風(fēng)險(xiǎn)極有可能發(fā)生。
AI的遠(yuǎn)慮和近憂雖然離真正想象的AI狀態(tài)還較遠(yuǎn),但人工智能在發(fā)展的過程中已經(jīng)引發(fā)了安全、倫理、道德等問題。
針對對AI倫理相關(guān)的考量,加拿大發(fā)布了《蒙特利爾宣言》,歐盟發(fā)布了《可信賴的AI倫理準(zhǔn)則》,澳大利亞發(fā)布《人工智能發(fā)展政策指導(dǎo)》,北京智源實(shí)驗(yàn)室為首發(fā)布《人工智能北京共識》,以探討AI的發(fā)展在技術(shù)之外還有什么重要的因素需要考量。
文繼榮院長表示,現(xiàn)在人工智能面臨兩大問題,一是深度學(xué)習(xí)涉及的黑箱問題。“現(xiàn)在存在這種情況,拿一個數(shù)據(jù)在GPU上面跑,一堆復(fù)雜的模型,誰也搞不懂是什么東西,將來不可控制。”
“這件事情其實(shí)有很大的隱患,我們訓(xùn)練的模型都是好心,大家沒有什么惡意,但是訓(xùn)練出來的模型拿去做一件事情,可能里面有不可控的因素,這是其一?!?/p>
其二,高級的人工智能會在應(yīng)用過程中有自學(xué)習(xí)功能,會自我計(jì)劃、自我學(xué)習(xí),這個過程中也會有很多不可控的危險(xiǎn)。
他舉例說,微軟研究院做了一個對話機(jī)器人小冰,中文版發(fā)布的時候叫小冰是個女孩,后來做了一個英文版,是男生,大概兩天三天就下線了,為什么?它在兩三天以后發(fā)表很多種族主義的言論。
小冰就是用大數(shù)據(jù)訓(xùn)練出來的看起來很智能的機(jī)器人,實(shí)際上它是在自學(xué)習(xí)。在剛剛一上線的時候,很多人開始利用這點(diǎn)訓(xùn)練小冰,因此它就學(xué)到了。
張鈸院士表示,宣言里實(shí)際包含兩個問題,分別是遠(yuǎn)慮和近憂。
從遠(yuǎn)慮角度來說,現(xiàn)在有兩種路線,一種路線是我們希望發(fā)明出來的機(jī)器將來所有事都讓它干,所有決策都讓它做。這個思路非常危險(xiǎn),“你將來的命運(yùn)實(shí)際是操縱在機(jī)器人手里?!?/p>
我們現(xiàn)在發(fā)展人工智能完全要建立人機(jī)和諧、人機(jī)共處、人機(jī)協(xié)作的未來,我們發(fā)展機(jī)器人的時候包括發(fā)展人工智能都要考慮到,哪些事情讓機(jī)器做,哪些事情讓人類做。
而近憂就在眼前,例如無意產(chǎn)生的語音合成。“本來想做一個服務(wù)器講出來的語言和自然人一樣,原來是好心做這個的,但是技術(shù)雙刃劍也會去用做壞事,但是有意的有沒有?絕對有?!?/p> 選擇保護(hù)隱私還是公眾安全
人工智能發(fā)展到一定階段,總是面臨著隱私和安全的沖突和平衡。
以加州為例,其通過了最嚴(yán)格的隱私保護(hù)法,任何在公共場合用攝像頭照人得到的照片都不允許被使用,甚至警察抓罪犯也不能調(diào)用。
而我們在安全和隱私這兩個緯度應(yīng)該做怎樣一個選擇?
張鈸院士表示:更重視隱私呢還是更重視公共利益?是如何平衡的問題。西方強(qiáng)調(diào)的隱私不見得對,我們過分強(qiáng)調(diào)公共利益也不對,這只是兩個極端而已,不存在誰對誰錯,而在于誰把這個平衡做得更好。
“個人利益和公共利益有些時候是矛盾的,我如何平衡?按照中國的世界觀和價(jià)值觀比較強(qiáng)調(diào)公共利益,按西方的價(jià)值觀比較強(qiáng)調(diào)個人利益,個人利益神圣不可侵犯,有這條憲法約定。
比如裝攝像頭,我們裝攝像頭對社會帶來多大的好處?比如抓逃犯,我主張罪犯要抓,如果影響到公共利益該抓就抓,個人要做點(diǎn)犧牲,這個是中國的哲學(xué)、中國的價(jià)值觀,西方是不接受這種價(jià)值觀的?!?/p>
清華大學(xué)教授唐杰則提到了分級問題,對于人工智能目前的發(fā)展?fàn)顟B(tài)是否需要未雨綢繆,像自動駕駛一樣分級,在哪個領(lǐng)域隱私保護(hù)里面需要做到什么級別,需要探討分級這個問題。
楊田博士則表示:“我們到處裝攝像頭,侵犯了公民的隱私權(quán)。另一方面,在座的所有人或多或少都從所謂的個性化推薦上面獲得了便利,個性化推薦也可以理解為向系統(tǒng)出賣了我們的隱私換來了生活的便利。
而這里面的邊界在不在于攝像頭,不在于數(shù)據(jù)采集,而在于這件事或者數(shù)據(jù)采集它能不能作為對行為不當(dāng)?shù)囊环N證據(jù)。這個是很細(xì)致的問題,本身不應(yīng)該由圖象采集這件事情來承擔(dān)?!?/p>
而對于人工智能的隱私,倫理等問題,學(xué)校和研究所應(yīng)該做什么?企業(yè)應(yīng)該做什么?還需要大家一起去探索。