CPU+GPU異構(gòu)集群搭建的總結(jié)說明
關(guān)于生成式對(duì)抗學(xué)習(xí)(Generative Adversarial Network, GAN)相關(guān)文章的閱讀整理以及資源匯總。
文章:
GeneraTIve Adversarial Nets (2014)[paper][code]
Ian Goodfellow第一篇提及生成式對(duì)抗學(xué)習(xí)的文章,開創(chuàng)性的工作。
– 提出了通過對(duì)抗網(wǎng)絡(luò)來估計(jì)生成模型。
– 理論闡述了模型的損失函數(shù)及其訓(xùn)練方法。
代碼已經(jīng)集成到Theano等機(jī)器學(xué)習(xí)框架中。
Unsupervised RepresentaTIon Learning with Deep ConvoluTIonal GeneraTIve Adversarial Networks(2015)[paper][code]
提出了生成式對(duì)抗網(wǎng)絡(luò)(GANs)與卷積神經(jīng)網(wǎng)絡(luò)(CNNs)的結(jié)合的深度卷積生成對(duì)抗網(wǎng)絡(luò)(DCGANs)。
將訓(xùn)練好的的判別模型用于圖像分類,和其他無監(jiān)督方法的結(jié)果具有可比較性。
Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial
Network(2016)[paper] [code]
利用GAN來完成低分辨率圖像的高清化。
GAN在圖片高清化問題上的成功應(yīng)用,清晰明了,效果顯著,很有參考性。
StackGAN:Text to Photo realistic Image Synthesis with Stacked Generative Adversarial Network(2016)[paper][code]
GAN用于基于文字描述的圖片生成。
兩個(gè)GAN,GAN-I 用于生成6464的低分辨率圖像(前人已有工作),GAN-II 基于文字和低分辨率圖像生成256256高分辨細(xì)節(jié)更多的圖片。
看起來很像一個(gè)GAN文字生成圖片加上一個(gè)GAN圖片高清化,這是兩個(gè)已經(jīng)獨(dú)立研究的工作,但是作者解釋了里面的不同。GAN-II里面也融合了文字描述,有額外的信息輸入,不像圖片高清化里沒有額外信息。
NIPS 2016 Tutorial: Generative Adversarial Networks (2016)[paper]
大神Goodfellow在NIPS2016 Tutorial之后的總結(jié)以及會(huì)上提到重要問題的回答??偨Y(jié)性很強(qiáng),內(nèi)容很多(57頁),干貨很多。
內(nèi)容主要有以下幾個(gè)方面:
– Why study generative modeling?
– How do generative models work?
– How do GANs work?
– Tips and Tricks
– Research Frontiers