谷歌人工智能厲害了,可自學(xué)加密解密技術(shù)
北京時(shí)間11月1日下午消息,隨著機(jī)器學(xué)習(xí)逐漸普及,機(jī)器人將負(fù)責(zé)處理越來(lái)越敏感和私密的數(shù)據(jù)。為了保護(hù)這些個(gè)人信息,谷歌的計(jì)算機(jī)科學(xué)家開(kāi)發(fā)了幾套能夠自學(xué)信息加密的神經(jīng)網(wǎng)絡(luò)。
谷歌旗下深度學(xué)習(xí)研究項(xiàng)目Google Brain的一個(gè)團(tuán)隊(duì)開(kāi)發(fā)了3個(gè)神經(jīng)網(wǎng)絡(luò),分別名為Alice、Bob和Eve,每個(gè)神經(jīng)網(wǎng)絡(luò)都有自己的任務(wù)。Alice向Bob發(fā)送加密信息,Bob則 需要對(duì)其解密。最后,Eve則試圖在沒(méi)有其他神經(jīng)網(wǎng)絡(luò)提供密鑰的情況下破解加密信息。
這些神經(jīng)網(wǎng)絡(luò)都沒(méi)有學(xué)習(xí)密碼算法,所以并沒(méi)有發(fā)展出復(fù)雜的系統(tǒng)。但它們卻可以將純文本轉(zhuǎn)化成加密信息。
研究人員馬丁·阿巴蒂(MarTIn Abadi)和大衛(wèi)·安德森(David Andersen)在論文中寫(xiě)道:“這一學(xué)習(xí)過(guò)程不需要指定具體的密碼算法,也不需要明確指示如何應(yīng)用這些算法:只是基于訓(xùn)練目標(biāo)的保密規(guī)格來(lái)進(jìn)行。”
經(jīng)過(guò)15萬(wàn)次模擬后,擁有密鑰的兩個(gè)神經(jīng)網(wǎng)絡(luò)(Alice和Bob)能夠通過(guò)安全方式發(fā)送和解密信息。但整個(gè)過(guò)程中,Eve都未能成功破解這些加密信息。
在傳授了保護(hù)數(shù)據(jù)的算法后,研究人員還試圖回答一個(gè)問(wèn)題:人工智能是否能學(xué)會(huì)哪些信息應(yīng)該使用加密技術(shù)來(lái)保護(hù)。為了做到這一點(diǎn),阿巴蒂和安德森開(kāi)發(fā)了另外一個(gè)神經(jīng)網(wǎng)絡(luò):Blind Eve。
這個(gè)神經(jīng)網(wǎng)絡(luò)只知道有信息被發(fā)送出去了,但卻無(wú)法接觸這些信息。Eve的錯(cuò)誤率低于Blind Eve,但隨著時(shí)間的推移,Eve也無(wú)法重建更多有關(guān)加密內(nèi)容的信息,仍然只能通過(guò)單純了解加密信息的價(jià)值分配獲取一些信息。
華盛頓大學(xué)計(jì)算機(jī)系教授佩德羅·多明戈(Pedro Domingos)表示,這項(xiàng)研究很有用,但并不清楚學(xué)習(xí)加密的目的何在。
“跳出這篇論文來(lái)看,對(duì)抗性學(xué)習(xí)是個(gè)很有意思的話題,因?yàn)檎鎸?shí)世界中的學(xué)習(xí)通常都要與對(duì)手進(jìn)行對(duì)抗,而且對(duì)抗模式可以帶來(lái)更好的學(xué)習(xí)效果。”他說(shuō)。
谷歌研究人員表示,神經(jīng)網(wǎng)絡(luò)可以通過(guò)訓(xùn)練來(lái)保護(hù)特定信息,也可以學(xué)會(huì)攻擊。
該論文總結(jié)道:“盡管神經(jīng)網(wǎng)絡(luò)可能不太擅長(zhǎng)密碼分析,但它們可能在元數(shù)據(jù)和流量分析方面很有用。”(書(shū)聿)