當(dāng)前位置:首頁 > 物聯(lián)網(wǎng) > 區(qū)塊鏈
[導(dǎo)讀] 當(dāng)與區(qū)塊鏈數(shù)據(jù)集一起使用時,機器學(xué)習(xí)模型往往會過擬合。什么是過度擬合以及如何解決? 乍一看,使用機器學(xué)習(xí)來分析區(qū)塊鏈數(shù)據(jù)集的想法聽起來非常吸引人,但這是充滿挑戰(zhàn)的道路。在這些挑戰(zhàn)中,當(dāng)

當(dāng)與區(qū)塊鏈數(shù)據(jù)集一起使用時,機器學(xué)習(xí)模型往往會過擬合。什么是過度擬合以及如何解決?

乍一看,使用機器學(xué)習(xí)來分析區(qū)塊鏈數(shù)據(jù)集的想法聽起來非常吸引人,但這是充滿挑戰(zhàn)的道路。在這些挑戰(zhàn)中,當(dāng)將機器學(xué)習(xí)方法應(yīng)用于區(qū)塊鏈數(shù)據(jù)集時,缺少標(biāo)記數(shù)據(jù)集仍然是要克服的最大難題。這些局限性導(dǎo)致許多機器學(xué)習(xí)模型使用非常小的數(shù)據(jù)樣本進行操作,以訓(xùn)練和過度優(yōu)化那些引起過擬合現(xiàn)象的模型。今天,我想深入探討區(qū)塊鏈分析中的過度擬合挑戰(zhàn),并提出一些解決方案。

過度擬合被認(rèn)為是現(xiàn)代深度學(xué)習(xí)應(yīng)用程序中的最大挑戰(zhàn)之一。從概念上講,當(dāng)模型生成的假設(shè)過于適合特定數(shù)據(jù)集的假設(shè)而無法適應(yīng)新數(shù)據(jù)集時,就會發(fā)生過度擬合。理解過度擬合的一個有用類比是將其視為模型中的幻覺。本質(zhì)上,模型從數(shù)據(jù)集中推斷出錯誤的假設(shè)時會產(chǎn)生幻覺/過度擬合。自從機器學(xué)習(xí)的早期以來,已經(jīng)有很多關(guān)于過擬合的文章,所以我不認(rèn)為有任何聰明的方法來解釋它。對于區(qū)塊鏈數(shù)據(jù)集,過度擬合是缺少標(biāo)記數(shù)據(jù)的直接結(jié)果。

區(qū)塊鏈?zhǔn)谴笮偷陌肽涿麛?shù)據(jù)結(jié)構(gòu),其中的所有事物都使用一組通用的構(gòu)造表示,例如交易,地址和區(qū)塊。從這個角度來看,有最少的信息可以證明區(qū)塊鏈記錄。這是轉(zhuǎn)賬還是付款交易?這是個人投資者錢包或交易所冷錢包的地址?這些限定符對于機器學(xué)習(xí)模型至關(guān)重要。

想象一下,我們正在創(chuàng)建一個模型來檢測一組區(qū)塊鏈中的交換地址。這個過程需要我們使用現(xiàn)有的區(qū)塊鏈地址數(shù)據(jù)集訓(xùn)練模型,我們都知道這不是很常見。如果我們使用來自EtherScan或其他來源的小型數(shù)據(jù)集,則該模型可能會過度擬合并做出錯誤的分類。

使過擬合變得如此具有挑戰(zhàn)性的方面之一是很難在不同的深度學(xué)習(xí)技術(shù)中進行概括。卷積神經(jīng)網(wǎng)絡(luò)傾向于形成過擬合模式,該模式與觀察到的與生成模型不同的遞歸神經(jīng)網(wǎng)絡(luò)不同,該模式可以外推到任何類型的深度學(xué)習(xí)模型。具有諷刺意味的是,過度擬合的傾向隨著深度學(xué)習(xí)模型的計算能力線性增加。由于深度學(xué)習(xí)主體幾乎可以免費產(chǎn)生復(fù)雜的假設(shè),因此過擬合的可能性增加了。

在機器學(xué)習(xí)模型中,過度擬合是一個持續(xù)的挑戰(zhàn),但是在使用區(qū)塊鏈數(shù)據(jù)集時,這幾乎是必然的。解決過度擬合的明顯答案是使用更大的訓(xùn)練數(shù)據(jù)集,但這并不總是一種選擇。在IntoTheBlock,我們經(jīng)常遇到過度擬合的挑戰(zhàn),我們依靠一系列基本方法來解決問題。

對抗區(qū)塊鏈數(shù)據(jù)集過擬合的三種簡單策略

對抗過度擬合的第一個規(guī)則是認(rèn)識到這一點。雖然沒有防止過度擬合的靈丹妙藥,但實踐經(jīng)驗表明,一些簡單的,幾乎是常識的規(guī)則可以幫助防止在深度學(xué)習(xí)應(yīng)用中出現(xiàn)這種現(xiàn)象。為了防止過度擬合,已經(jīng)發(fā)布了數(shù)十種最佳實踐,其中包含三個基本概念。

數(shù)據(jù)/假設(shè)比率

當(dāng)模型產(chǎn)生太多假設(shè)而沒有相應(yīng)的數(shù)據(jù)來驗證它們時,通常會發(fā)生過度擬合。因此,深度學(xué)習(xí)應(yīng)用程序應(yīng)嘗試在測試數(shù)據(jù)集和應(yīng)評估的假設(shè)之間保持適當(dāng)?shù)谋嚷?。但是,這并不總是一種選擇。
?

有許多深度學(xué)習(xí)算法(例如歸納學(xué)習(xí))依賴于不斷生成新的,有時是更復(fù)雜的假設(shè)。在這些情況下,有一些統(tǒng)計技術(shù)可以幫助估計正確的假設(shè)數(shù)量,以優(yōu)化找到接近正確的假設(shè)的機會。盡管此方法無法提供確切的答案,但可以幫助在假設(shè)數(shù)量和數(shù)據(jù)集組成之間保持統(tǒng)計平衡的比率。哈佛大學(xué)教授萊斯利·瓦利安特(Leslie Valiant)在他的《大概是正確的》一書中出色地解釋了這一概念。

進行區(qū)塊鏈分析時,數(shù)據(jù)/假設(shè)比率非常明顯。假設(shè)我們正在基于一年的區(qū)塊鏈交易構(gòu)建預(yù)測算法。因為我們不確定要測試哪種機器學(xué)習(xí)模型,所以我們使用了一種神經(jīng)架構(gòu)搜索(NAS)方法,該方法針對區(qū)塊鏈數(shù)據(jù)集測試了數(shù)百種模型。假設(shè)數(shù)據(jù)集僅包含一年的交易,則NAS方法可能會產(chǎn)生一個完全適合訓(xùn)練數(shù)據(jù)集的模型。

支持簡單假設(shè)

防止深度學(xué)習(xí)模型過度擬合的概念上瑣碎但技術(shù)上困難的想法是不斷生成更簡單的假設(shè)。當(dāng)然!簡單總是更好,不是嗎?但是在深度學(xué)習(xí)算法的背景下,一個更簡單的假設(shè)是什么?如果我們需要將其減少到一個定量因素,我會說深度學(xué)習(xí)假設(shè)中的屬性數(shù)量與它的復(fù)雜度成正比。

簡單的假設(shè)往往比其他具有大量計算和認(rèn)知屬性的假設(shè)更易于評估。因此,與復(fù)雜模型相比,較簡單的模型通常不易過擬合?,F(xiàn)在,下一個明顯的難題是弄清楚如何在深度學(xué)習(xí)模型中生成更簡單的假設(shè)。一種不太明顯的技術(shù)是基于估計的復(fù)雜度將某種形式的懲罰附加到算法上。該機制傾向于傾向于更簡單,近似準(zhǔn)確的假設(shè),而不是在出現(xiàn)新數(shù)據(jù)集時可能會崩潰的更復(fù)雜(有時甚至更準(zhǔn)確)的假設(shè)。

為了在區(qū)塊鏈分析的背景下解釋這個想法,讓我們想象一下我們正在建立一個模型,用于對區(qū)塊鏈中的支付交易進行分類。該模型使用一個復(fù)雜的深度神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)會生成1000個特征以執(zhí)行分類。如果將其應(yīng)用于較小的區(qū)塊鏈(例如Dash或Litecoin),則該模型很可能會過擬合。

偏差/方差余額

偏差和方差是深度學(xué)習(xí)模型中的兩個關(guān)鍵估計量。從概念上講,偏差是模型的平均預(yù)測與我們試圖預(yù)測的正確值之間的差。具有高偏差的模型很少關(guān)注訓(xùn)練數(shù)據(jù),從而簡化了模型。總是會導(dǎo)致培訓(xùn)和測試數(shù)據(jù)的錯誤率很高?;蛘?,方差是指給定數(shù)據(jù)點的模型預(yù)測的可變性或一個告訴我們數(shù)據(jù)分布的值。具有高方差的模型將大量注意力放在訓(xùn)練數(shù)據(jù)上,并且沒有對以前從未見過的數(shù)據(jù)進行概括。結(jié)果,這樣的模型在訓(xùn)練數(shù)據(jù)上表現(xiàn)很好,但是在測試數(shù)據(jù)上有很高的錯誤率。

偏差和方差與過度擬合如何相關(guān)?用超簡單的術(shù)語來說,可以通過減少模型的偏差而不增加其方差來概括泛化的技巧。深度學(xué)習(xí)的一種良好做法是對它進行建模,以定期將產(chǎn)生的假設(shè)與測試數(shù)據(jù)集進行比較并評估結(jié)果。如果假設(shè)繼續(xù)輸出相同的錯誤,則說明我們存在很大的偏差問題,需要調(diào)整或替換算法。相反,如果沒有明確的錯誤模式,則問題在于差異,我們需要更多數(shù)據(jù)。

綜上所述

? 任何低復(fù)雜度模型-由于高偏差和低方差,容易出現(xiàn)擬合不足。
? 任何高復(fù)雜度模型(深度神經(jīng)網(wǎng)絡(luò))-由于低偏差和高方差,容易出現(xiàn)過度擬合。

在區(qū)塊鏈分析的背景下,偏差方差摩擦無處不在。讓我們回到我們的算法,該算法嘗試使用許多區(qū)塊鏈因素來預(yù)測價格。如果我們使用簡單的線性回歸方法,則該模型可能不合適。但是,如果我們使用具有少量數(shù)據(jù)集的超復(fù)雜神經(jīng)網(wǎng)絡(luò),則該模型可能會過擬合。

使用機器學(xué)習(xí)來分析區(qū)塊鏈數(shù)據(jù)是一個新生的空間。結(jié)果,大多數(shù)模型在機器學(xué)習(xí)應(yīng)用程序中都遇到了傳統(tǒng)挑戰(zhàn)。根本上,由于缺乏標(biāo)記數(shù)據(jù)和訓(xùn)練有素的模型,過度擬合是區(qū)塊鏈分析中無所不在的挑戰(zhàn)之一。

本站聲明: 本文章由作者或相關(guān)機構(gòu)授權(quán)發(fā)布,目的在于傳遞更多信息,并不代表本站贊同其觀點,本站亦不保證或承諾內(nèi)容真實性等。需要轉(zhuǎn)載請聯(lián)系該專欄作者,如若文章內(nèi)容侵犯您的權(quán)益,請及時聯(lián)系本站刪除。
換一批
延伸閱讀

9月2日消息,不造車的華為或?qū)⒋呱龈蟮莫毥谦F公司,隨著阿維塔和賽力斯的入局,華為引望愈發(fā)顯得引人矚目。

關(guān)鍵字: 阿維塔 塞力斯 華為

加利福尼亞州圣克拉拉縣2024年8月30日 /美通社/ -- 數(shù)字化轉(zhuǎn)型技術(shù)解決方案公司Trianz今天宣布,該公司與Amazon Web Services (AWS)簽訂了...

關(guān)鍵字: AWS AN BSP 數(shù)字化

倫敦2024年8月29日 /美通社/ -- 英國汽車技術(shù)公司SODA.Auto推出其旗艦產(chǎn)品SODA V,這是全球首款涵蓋汽車工程師從創(chuàng)意到認(rèn)證的所有需求的工具,可用于創(chuàng)建軟件定義汽車。 SODA V工具的開發(fā)耗時1.5...

關(guān)鍵字: 汽車 人工智能 智能驅(qū)動 BSP

北京2024年8月28日 /美通社/ -- 越來越多用戶希望企業(yè)業(yè)務(wù)能7×24不間斷運行,同時企業(yè)卻面臨越來越多業(yè)務(wù)中斷的風(fēng)險,如企業(yè)系統(tǒng)復(fù)雜性的增加,頻繁的功能更新和發(fā)布等。如何確保業(yè)務(wù)連續(xù)性,提升韌性,成...

關(guān)鍵字: 亞馬遜 解密 控制平面 BSP

8月30日消息,據(jù)媒體報道,騰訊和網(wǎng)易近期正在縮減他們對日本游戲市場的投資。

關(guān)鍵字: 騰訊 編碼器 CPU

8月28日消息,今天上午,2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會開幕式在貴陽舉行,華為董事、質(zhì)量流程IT總裁陶景文發(fā)表了演講。

關(guān)鍵字: 華為 12nm EDA 半導(dǎo)體

8月28日消息,在2024中國國際大數(shù)據(jù)產(chǎn)業(yè)博覽會上,華為常務(wù)董事、華為云CEO張平安發(fā)表演講稱,數(shù)字世界的話語權(quán)最終是由生態(tài)的繁榮決定的。

關(guān)鍵字: 華為 12nm 手機 衛(wèi)星通信

要點: 有效應(yīng)對環(huán)境變化,經(jīng)營業(yè)績穩(wěn)中有升 落實提質(zhì)增效舉措,毛利潤率延續(xù)升勢 戰(zhàn)略布局成效顯著,戰(zhàn)新業(yè)務(wù)引領(lǐng)增長 以科技創(chuàng)新為引領(lǐng),提升企業(yè)核心競爭力 堅持高質(zhì)量發(fā)展策略,塑強核心競爭優(yōu)勢...

關(guān)鍵字: 通信 BSP 電信運營商 數(shù)字經(jīng)濟

北京2024年8月27日 /美通社/ -- 8月21日,由中央廣播電視總臺與中國電影電視技術(shù)學(xué)會聯(lián)合牽頭組建的NVI技術(shù)創(chuàng)新聯(lián)盟在BIRTV2024超高清全產(chǎn)業(yè)鏈發(fā)展研討會上宣布正式成立。 活動現(xiàn)場 NVI技術(shù)創(chuàng)新聯(lián)...

關(guān)鍵字: VI 傳輸協(xié)議 音頻 BSP

北京2024年8月27日 /美通社/ -- 在8月23日舉辦的2024年長三角生態(tài)綠色一體化發(fā)展示范區(qū)聯(lián)合招商會上,軟通動力信息技術(shù)(集團)股份有限公司(以下簡稱"軟通動力")與長三角投資(上海)有限...

關(guān)鍵字: BSP 信息技術(shù)
關(guān)閉
關(guān)閉