當(dāng)前位置:首頁 > 智能硬件 > 人工智能AI
[導(dǎo)讀] 深度學(xué)習(xí)是一個計算繁重的過程。 降低成本一直是 Data curation 的一大挑戰(zhàn)。 關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)大功耗的訓(xùn)練過程,已經(jīng)有研究人員發(fā)表了其碳足跡(溫室氣體排放集合)的報告。

深度學(xué)習(xí)是一個計算繁重的過程。 降低成本一直是 Data curation 的一大挑戰(zhàn)。 關(guān)于深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)大功耗的訓(xùn)練過程,已經(jīng)有研究人員發(fā)表了其碳足跡(溫室氣體排放集合)的報告。

情況只會越來越復(fù)雜,因為我們正迎來一個充斥著大量的機(jī)器學(xué)習(xí)應(yīng)用程序的未來。但所幸的是,我們也看到一些能夠讓訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程變得更高效的策略正在被發(fā)明出來。

以更改單個輸入來更新神經(jīng)網(wǎng)絡(luò)的預(yù)測可能會降低其他輸入的性能。 當(dāng)前,業(yè)內(nèi)通常使用兩種解決方法:

1、在原始數(shù)據(jù)集上重新訓(xùn)練模型,并補(bǔ)充解決錯誤的樣本;

2、使用手動緩存(例如查找表)來代替對有問題的樣本的模型預(yù)測;

雖然簡單,但是這種方法對于輸入中的細(xì)微變化并不穩(wěn)健。 例如,在自然語言處理任務(wù)中,它不會概括出同一對象的不同觀點(diǎn)或釋義。 因此,在ICLR 2020的一篇正在審核的論文中,尚未公開姓名的作者提出了一種稱為“可編輯訓(xùn)練”的替代方法。

神經(jīng)網(wǎng)絡(luò)的“修補(bǔ)

可編輯神經(jīng)網(wǎng)絡(luò)也屬于元學(xué)習(xí)范例,因為它們基本上是“學(xué)習(xí)允許有效修補(bǔ)”。

有效的神經(jīng)網(wǎng)絡(luò)修補(bǔ)問題不同于持續(xù)學(xué)習(xí),因為研究人員認(rèn)為,可編輯的訓(xùn)練設(shè)置本質(zhì)上不是順序的。

在這種情況下進(jìn)行編輯意味著在不影響其他輸入的情況下,更改輸入對子集的模型預(yù)測(與錯誤分類的對象相對應(yīng))。

為此,構(gòu)想出了編輯器功能,即一種給定約束的參數(shù)功能。 換句話說,非正式地,這是一個調(diào)整參數(shù)以滿足給定約束的函數(shù),該約束的作用是強(qiáng)制執(zhí)行模型行為所需的更改。

對于圖像分類實(shí)驗,使用標(biāo)準(zhǔn)訓(xùn)練/測試分割獲取小的CIFAR-10數(shù)據(jù)集。訓(xùn)練數(shù)據(jù)集進(jìn)一步增加了隨機(jī)裁剪和隨機(jī)水平翻轉(zhuǎn)。

在此數(shù)據(jù)集上訓(xùn)練的所有模型都遵循ResNet-18架構(gòu),并使用具有默認(rèn)超參數(shù)的Adam優(yōu)化器。

為深度神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)Edit的自然方法是使用梯度下降。 根據(jù)作者的觀點(diǎn),標(biāo)準(zhǔn)的梯度下降編輯器可以用動量(momentum)、自適應(yīng)學(xué)習(xí)率(adapTIve learning rates)進(jìn)一步增強(qiáng)。

但是,在許多實(shí)際情況下,絕大部分這些編輯都不會發(fā)生。 例如,比起“卡車”或“船”,以前被分類為“飛機(jī)”的圖像更有可能需要編輯為“鳥”。 為了解決這個問題,作者采用了自然對抗樣本(NAE)數(shù)據(jù)集。

該數(shù)據(jù)集包含7500個自然圖像,這些圖像很難用神經(jīng)網(wǎng)絡(luò)進(jìn)行分類。 如果不進(jìn)行編輯,經(jīng)過預(yù)訓(xùn)練的模型可以正確地預(yù)測NAE中不到1%的數(shù)據(jù),但是正確的答案可能在按預(yù)測概率排序的前100個類別中。

總結(jié)

可編輯訓(xùn)練與對抗訓(xùn)練有些相似,后者是對抗攻擊防御的主要方法。 這里的重要區(qū)別在于,可編輯訓(xùn)練旨在學(xué)習(xí)模型,可以有效地糾正某些樣本上的行為。

同時,對抗訓(xùn)練會產(chǎn)生對某些輸入擾動具有魯棒性的模型。 但人們可以使用可編輯訓(xùn)練來針對合成和自然對抗示例有效地覆蓋模型漏洞。

在許多深度學(xué)習(xí)應(yīng)用程序中,單個模型錯誤可能導(dǎo)致毀滅性的財務(wù)、名譽(yù)乃至生命危險。 因此,至關(guān)重要的是要盡快糾正出現(xiàn)的模型錯誤。

可編輯訓(xùn)練,一種與模型無關(guān)的訓(xùn)練技術(shù),可鼓勵對訓(xùn)練后的模型進(jìn)行快速編輯,并且這種方法的有效性對于大規(guī)模圖像分類和機(jī)器翻譯任務(wù)也很有希望。

來源:愛吧機(jī)器人網(wǎng)

本站聲明: 本文章由作者或相關(guān)機(jī)構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點(diǎn),本站亦不保證或承諾內(nèi)容真實(shí)性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫?dú)角獸公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運(yùn)行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機(jī) 衛(wèi)星通信

要點(diǎn): 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實(shí)提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強(qiáng)核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運(yùn)營商 數(shù)字經(jīng)濟(jì)

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團(tuán))股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉