機器學(xué)習(xí)的最佳算法
掃描二維碼
隨時隨地手機看文章
在下述的內(nèi)容中,小編將會對機器學(xué)習(xí)的相關(guān)消息予以報道,如果機器學(xué)習(xí)是您想要了解的焦點之一,不妨和小編共同閱讀這篇文章哦。
機器學(xué)習(xí)中并沒有哪個算法是最佳的,所有的算法都有各自最適用的場景。因此,我們來了解一下常見機器學(xué)習(xí)算法。
1. 監(jiān)督學(xué)習(xí)
監(jiān)督學(xué)習(xí)是從標(biāo)記的訓(xùn)練數(shù)據(jù)來推斷一個功能的機器學(xué)習(xí)任務(wù)。訓(xùn)練數(shù)據(jù)包括一套訓(xùn)練示例。在監(jiān)督學(xué)習(xí)中,每個實例都是由一個輸入對象(通常為矢量)和一個期望的輸出值(也稱為監(jiān)督信號)組成。監(jiān)督學(xué)習(xí)算法是分析該訓(xùn)練數(shù)據(jù),并產(chǎn)生一個推斷的功能,其可以用于映射出新的實例。一個最佳的方案將允許該算法來正確地決定那些看不見的實例的類標(biāo)簽。這就要求學(xué)習(xí)算法是在一種“合理”的方式從一種從訓(xùn)練數(shù)據(jù)到看不見的情況下形成。
監(jiān)督學(xué)習(xí)是指機器學(xué)習(xí)過程中,模型預(yù)測結(jié)果與真實目標(biāo)變量進行比較的學(xué)習(xí)方式。常見的監(jiān)督學(xué)習(xí)算法有決策樹、KNN、SVM、邏輯回歸、隨機森林等。
2. 無監(jiān)督學(xué)習(xí)
無監(jiān)督學(xué)習(xí)里典型例子是聚類。聚類的目的在于把相似的東西聚在一起,而我們并不關(guān)心這一類是什么。因此,一個聚類算法通常只需要知道如何計算相似度就可以開始工作了。
聚類算法一般有五種方法,最主要的是劃分方法和層次方法兩種。劃分聚類算法通過優(yōu)化評價函數(shù)把數(shù)據(jù)集分割為K個部分,它需要K作為輸入?yún)?shù)。典型的分割聚類算法有K-means算法, K-medoids算法、CLARANS算法。層次聚類由不同層次的分割聚類組成,層次之間的分割具有嵌套的關(guān)系。它不需要輸入?yún)?shù),這是它優(yōu)于分割聚類 算法的一個明顯的優(yōu)點,其缺點是終止條件必須具體指定。典型的分層聚類算法有BIRCH算法、DBSCAN算法和CURE算法等。
無監(jiān)督學(xué)習(xí)通常針對于沒有明確的答案或目標(biāo)變量的數(shù)據(jù)。此時,需要算法從數(shù)據(jù)中發(fā)掘隱藏的信息。常見的無監(jiān)督學(xué)習(xí)算法有聚類、主成分分析等。
3. 半監(jiān)督學(xué)習(xí)
半監(jiān)督學(xué)習(xí)是指利用一部分有標(biāo)簽的數(shù)據(jù)和無標(biāo)簽的數(shù)據(jù)進行學(xué)習(xí)。通常情況下,有標(biāo)簽的數(shù)據(jù)比無標(biāo)簽的數(shù)據(jù)少得多。常見的半監(jiān)督學(xué)習(xí)算法有深度置信網(wǎng)絡(luò)、困惑度等。
在半監(jiān)督學(xué)習(xí)成為一個熱門領(lǐng)域之后,出現(xiàn)了許多利用無類標(biāo)簽的樣例提高學(xué)習(xí)算法預(yù)測精度和加快速度的學(xué)習(xí)方法,因此出現(xiàn)了大量改進的半監(jiān)督學(xué)習(xí)方法。Nigam等人將EM和樸素貝葉斯結(jié)合,通過引入加權(quán)系數(shù)動態(tài)調(diào)整無類標(biāo)簽的樣例的影響提高了分類準(zhǔn)確度,建立每類中具有多個混合部分的模型,使貝葉斯偏差減小。Zhou和Goldman提出了協(xié)同訓(xùn)練改進算法,不需要充分冗余的視圖,而利用兩個不同類型的分類器來完成學(xué)習(xí)。Shang等人提出一種新的半監(jiān)督學(xué)習(xí)方法,能同時解決有類標(biāo)簽樣本稀疏和具有附加無類標(biāo)簽樣例成對約束的問題。
4. 強化學(xué)習(xí)
強化學(xué)習(xí)是一種通過學(xué)習(xí)的方式,使得機器能夠根據(jù)獎勵信號做出更好的決策的方法。常見的強化學(xué)習(xí)算法有Q-learning、策略梯度等。
強化學(xué)習(xí)是智能體(Agent)以“試錯”的方式進行學(xué)習(xí),通過與環(huán)境進行交互獲得的獎賞指導(dǎo)行為,目標(biāo)是使智能體獲得最大的獎賞,強化學(xué)習(xí)不同于連接主義學(xué)習(xí)中的監(jiān)督學(xué)習(xí),主要表現(xiàn)在強化信號上,強化學(xué)習(xí)中由環(huán)境提供的強化信號是對產(chǎn)生動作的好壞作一種評價(通常為標(biāo)量信號),而不是告訴強化學(xué)習(xí)系統(tǒng)RLS(reinforcement learning system)如何去產(chǎn)生正確的動作。由于外部環(huán)境提供的信息很少,RLS必須靠自身的經(jīng)歷進行學(xué)習(xí)。通過這種方式,RLS在行動-評價的環(huán)境中獲得知識,改進行動方案以適應(yīng)環(huán)境。
以上就是小編這次想要和大家分享的有關(guān)機器學(xué)習(xí)的內(nèi)容,希望大家對本次分享的內(nèi)容已經(jīng)具有一定的了解。如果您想要看不同類別的文章,可以在網(wǎng)頁頂部選擇相應(yīng)的頻道哦。