如果現(xiàn)在一個(gè)面試官讓你從零推導(dǎo)SVM的Dual、從零實(shí)現(xiàn)CRF、推導(dǎo)LDA、設(shè)計(jì)一個(gè)QP問(wèn)題、從零編寫XLNet、編寫GCN/GNN、改造SkipGram模型、用一天時(shí)間復(fù)現(xiàn)一篇頂級(jí)會(huì)議....
這些要求一點(diǎn)都不過(guò)分。相反,連這些基本內(nèi)容都有些吃力,就需要重新審視一下自己的核心技術(shù)壁壘了。
貪心學(xué)院(國(guó)內(nèi)唯一體系化AI學(xué)院)目前推出了兩門高端的AI訓(xùn)練營(yíng),分別是《機(jī)器學(xué)習(xí)高階訓(xùn)練營(yíng)》和《自然語(yǔ)言處理高階訓(xùn)練營(yíng)》。
訓(xùn)練營(yíng)全程直播授課模式,近距離接觸頂級(jí)講師,下面像大家介紹一下《機(jī)器學(xué)習(xí)高階訓(xùn)練營(yíng)》:
《機(jī)器學(xué)習(xí)高階訓(xùn)練營(yíng)》
全球前沿AI科研成果教學(xué)
添加課程顧問(wèn)小姐姐,備注【機(jī)器學(xué)習(xí)】
領(lǐng)取課程優(yōu)惠名額
第一階段 機(jī)器學(xué)習(xí)基礎(chǔ)與凸優(yōu)化
本階段主要目的是講解必要的算法理論以及凸優(yōu)化技術(shù),為后續(xù)的課程打下基礎(chǔ)。凸優(yōu)化的重要性不言而喻,如果想具備改造模型的能力,對(duì)于凸優(yōu)化的理解是必不可少的!
- 正則:L1, L2, L-inifity Norm
- Duality,Strong Duality、KKT條件
- 帶條件/無(wú)條件優(yōu)化問(wèn)題、Projected GD
- 平滑函數(shù)、Convergence Analysis
- 基于QP的股票投資組合策略設(shè)計(jì)
本階段主要目的是深入理解SVM以及核函數(shù)部分的知識(shí)點(diǎn)。為了理解清楚SVM的Dual轉(zhuǎn)換,需要掌握第一部分里的Duality理論。另外,重點(diǎn)介紹Bagging和Boosting模型,以及所涉及到的幾項(xiàng)有趣的理論。
- Max-Margin與線性SVM構(gòu)建
- SVM的Dual、Kernelized SVM
- Kernel Functions, Mercer'定理
- Kernelized LR/KNN/K-Means/PCA
- Bagging, Boosting, Stacking
- 基于PCA和Kernel SVM的人臉識(shí)別.
- 基于Kernal PCA和Linear SVM的人臉識(shí)別
第三階段 無(wú)監(jiān)督學(xué)習(xí)與序列模型
本階段主要目的是學(xué)習(xí)無(wú)監(jiān)督算法和經(jīng)典的序列模型。重點(diǎn)講解EM算法以及GMM,K-means的關(guān)系,同時(shí)花幾次課程時(shí)間來(lái)仔細(xì)講解CRF的細(xì)節(jié):從無(wú)向圖模型、Potential函數(shù)、Log-Linear Model、邏輯回歸、HMM、MEMM、Label Bias、Linear CRF、Inference,最后到Non-Linear CRF。
- 層次聚類,DCSCAN,Spectral聚類算法
- 隱變量與隱變量模型、Partition函數(shù)
- 條件獨(dú)立、D-Separation、Markov性質(zhì)
- HMM以及基于Viterbi的Decoding
- Log-Linear Model,邏輯回歸,特征函數(shù)
- Linear CRF以及參數(shù)估計(jì)
- 基于HMM和GMM的語(yǔ)音識(shí)別
本階段主要講解深度學(xué)習(xí)理論以及常見的模型。這里包括BP算法、卷積神經(jīng)網(wǎng)絡(luò)、RNN/LSTM、BERT、XLNet、ALBERT以及各類深度學(xué)習(xí)圖模型。另外,也會(huì)涉及到深度相關(guān)的優(yōu)化以及調(diào)參技術(shù)。
- 神經(jīng)網(wǎng)絡(luò)與激活函數(shù)
- 卷積神經(jīng)網(wǎng)絡(luò)、常用的CNN結(jié)構(gòu)
- Dropout與Batch Normalization
- Word2Vec, Elmo, Bert, XLNet
- 深度學(xué)習(xí)中的調(diào)參技術(shù)
- 深度學(xué)習(xí)與圖嵌入(Graph Embedding)
- Translating Embedding (TransE)
- Node2Vec- Graph Convolutional Network
- Dynamic Graph Embedding
- 基于Seq2Seq和注意力機(jī)制的機(jī)器翻譯
- 基于TransE和GCN的知識(shí)圖譜推理
- 基于CNN的人臉關(guān)鍵點(diǎn)檢測(cè)
第五階段 推薦系統(tǒng)與在線學(xué)習(xí)
推薦系統(tǒng)一直是機(jī)器學(xué)習(xí)領(lǐng)域的核心,所以在本階段重點(diǎn)來(lái)學(xué)習(xí)推薦系統(tǒng)領(lǐng)域主流的算法以及在線學(xué)習(xí)的技術(shù)、包括如何使用增強(qiáng)學(xué)習(xí)來(lái)做推薦系統(tǒng)。 在線學(xué)習(xí)算法很深具有很漂亮的理論基礎(chǔ),在本階段你都會(huì)一一體會(huì)到!
- 基于內(nèi)容和協(xié)同過(guò)濾的推薦算法
- 基于內(nèi)容的Gradient Tree
- Exploration vs Exploitation
- UCB1 algorithm,EXP3 algorithm
- Adversarial Bandit model
- Contexulalized Bandit、LinUCB
- 使用GB Tree做基于 interaction 與 content的廣告推薦
- 使用深度神經(jīng)網(wǎng)絡(luò)做基于interaction 與 content的推薦
- LinUCB做新聞推薦, 最大化rewards
本階段重點(diǎn)講解貝葉斯模型。貝葉斯派區(qū)別于頻率派,主要的任務(wù)是估計(jì)后驗(yàn)概率的方式來(lái)做預(yù)測(cè)。我們重點(diǎn)講解主題模型以及不同的算法包括吉布采樣、變分法、SGLD等,以及如何把貝葉斯的框架結(jié)合在深度學(xué)習(xí)模型里使用,這就會(huì)衍生出Bayesian LSTM的模型。貝葉斯部分的學(xué)習(xí)需要一定的門檻,但我們會(huì)讓每個(gè)人聽懂所有細(xì)節(jié)!
- Dirichlet/Multinomial Distribution
- Metropolis Hasting與Gibbs Sampling
- 使用Collapsed Gibbs Sampler求解LDA
- Mean-field variational Inference
- Stochastic Optimization與貝葉斯估計(jì)
- 隨機(jī)過(guò)程與無(wú)參模型(non-parametric)
- Chinese Retarant Process
- Stochastic Block Model與MMSB
- Bayesian Deep Learning模型
- 基于貝葉斯模型實(shí)現(xiàn)小數(shù)量的圖像識(shí)別
第七階段 增強(qiáng)學(xué)習(xí)與其他前沿主題
本階段重點(diǎn)講解增強(qiáng)學(xué)習(xí)以及前沿的內(nèi)容,包括增強(qiáng)學(xué)習(xí)在文本領(lǐng)域的應(yīng)用,GAN, VAE,圖片和文本的Disentangling,深度學(xué)習(xí)領(lǐng)域可解釋性問(wèn)題、Adversial Learning, Fair Learning等最前沿的主題。 這一階段的安排也會(huì)根據(jù)學(xué)員的興趣點(diǎn)做局部的調(diào)整。
- Policy Learning、Deep RL
- Variational Autoencoder(VAE)與求解
- Generative Adversial Network(GAN)
- Adversial Machine Learning
《機(jī)器學(xué)習(xí)高階訓(xùn)練營(yíng)》
全球前沿AI科研成果教學(xué)
添加課程顧問(wèn)小姐姐,備注【機(jī)器學(xué)習(xí)】
領(lǐng)取課程優(yōu)惠名額
03直播授課,現(xiàn)場(chǎng)推導(dǎo)演示
區(qū)別于劣質(zhì)的PPT講解,導(dǎo)師全程現(xiàn)場(chǎng)推導(dǎo),
讓你在學(xué)習(xí)中有清晰的思路,深刻的理解算法模型背后推導(dǎo)的每個(gè)細(xì)節(jié)。更重要的是可以清晰地看到各種模型之間的關(guān)系!幫助你打通六脈!
▲源自:Convex Optimization 講解
▲源自:Convergence Analysis 講解
不管你在學(xué)習(xí)過(guò)程中遇到多少阻礙,你都可以通過(guò)以下4種方式解決:
2、記錄到共享文檔中,每日固定時(shí)間的直播答疑;
3、學(xué)習(xí)社群中全職助教,隨時(shí)提問(wèn)答疑
4、共同的問(wèn)題在Review Session里面做講解
注:每次答疑,班主任都會(huì)進(jìn)行記錄,以便學(xué)員實(shí)時(shí)查閱。
采用直播的授課方式,每周3-4次直播教學(xué),包含核心理論課、實(shí)戰(zhàn)課、復(fù)習(xí)鞏固課以及論文講解課。教學(xué)模式上也參考了美國(guó)頂級(jí)院校的教學(xué)體系。以下為其中一周的課程安排,供參考。
《機(jī)器學(xué)習(xí)高階訓(xùn)練營(yíng)》
全球前沿AI科研成果教學(xué)
添加課程顧問(wèn)小姐姐,備注【機(jī)器學(xué)習(xí)】
領(lǐng)取課程優(yōu)惠名額
通過(guò)在知乎上發(fā)表相關(guān)技術(shù)文章進(jìn)行自我成果檢驗(yàn),同時(shí)也是一種思想碰撞的方式,導(dǎo)師會(huì)對(duì)發(fā)表的每一篇文章寫一個(gè)詳細(xì)的評(píng)語(yǔ)。萬(wàn)一不小心成為一個(gè)大V了呢?雖然寫文章的過(guò)程萬(wàn)分痛苦,學(xué)習(xí)群里半夜哀嚎遍野,但看一看抓著頭發(fā)寫出來(lái)的文章結(jié)果還是非常喜人的!看著自己收獲的點(diǎn)贊數(shù),大家都默默地感謝起導(dǎo)師們的無(wú)情!
除了文章,算法工程師的立命根本--項(xiàng)目代碼,
導(dǎo)師更是不會(huì)放過(guò)的。每次在Gitlab上布置的作業(yè),導(dǎo)師們都會(huì)帶領(lǐng)助教團(tuán)隊(duì)會(huì)予以詳細(xì)的批改和反饋。并逼著你不斷的優(yōu)化!
《機(jī)器學(xué)習(xí)高階訓(xùn)練營(yíng)》
全球前沿AI科研成果教學(xué)
添加課程顧問(wèn)小姐姐,備注【機(jī)器學(xué)習(xí)】
領(lǐng)取課程優(yōu)惠名額
免責(zé)聲明:本文內(nèi)容由21ic獲得授權(quán)后發(fā)布,版權(quán)歸原作者所有,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。文章僅代表作者個(gè)人觀點(diǎn),不代表本平臺(tái)立場(chǎng),如有問(wèn)題,請(qǐng)聯(lián)系我們,謝謝!