【新手必備】GAN生成對抗網路論文閱讀路線圖(附論文下載連結)
新智元推薦
來源:專知(ID:Quan_Zhuanzhi)
作者:İdil Sülo, Middle East Technical University
【新智元導讀】當剛入門深度對抗網路(GAN),我們可能會遇到的第一個問題是:應該從哪篇論文開始讀起呢?如果有著這樣的疑問,那就看看這篇GAN論文閱讀路線圖吧。
針對深度對抗網路(GAN)的初學者,來自中東科技大學的學者İdil Sülo給出了GAN論文閱讀路線圖,以幫助人們更好更快地通過大量閱讀入門GAN。
路線圖按照下面四個準則構建而成:
- 從提綱到細節
- 從經典到前沿
- 從通用領域到特定領域
- 專注於最先進的技術
Generative Adversarial Networks – Paper Reading Road Map
今年夏天,我在我的實習工作中重點研究了Generative Adversarial Networks(GAN)。 起初,我對這個模型知之甚少,所以實習的最初幾周進行了大量的紙質閱讀。 為了幫助其他想要了解更多關於GAN技術的人,我想按照我閱讀的順序分享一些我讀過的文章。
在閱讀這些論文之前,如果您不熟悉這些論文,我建議您學習一些深度學習的基礎知識。 我也相信其中一些論文背後的數學可能非常困難,所以如果你覺得不舒服,你可以跳過這些部分。
這是我的論文閱讀路線圖,我給出了一些我自己關於論文的評論:
1. NIPS 2016 Tutorial: Generative Adversarial Networks
這是Ian Goodfellow的一個教程,介紹了GANS的重要性、它們的工作原理、與它們相關的研究前沿以及將GANS與其他方法結合起來最前沿的視覺模型。本教程首先介紹GANS的應用例項。然後,Ian Goodfellow對GANS和其他模型,如變分編碼器進行了比較。Goodfellow後來解釋了生成器和判別器是如何工作的,並且還描述了它們之間的關係。接下來,Goodfellow給出了改進GANS效能的一些技巧和竅門,以及與GANS相關的一些研究前沿。他還提及了GANS面臨的問題,比如模式崩塌。最後,Goodfellow提出了一些實際操作和解決方法。
Paper link: https://arxiv.org/abs/1701.00160
2. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks
這篇論文描述了一種使卷積GAN訓練更加穩定的新型結構——深度卷積生成網路(DCGAN)。研究人員給出了這種結構的一些指導方針,例如為更深的結構移除全連線的隱藏層,為生成器和鑑別器使用 batch normalisation,在生成器中為除輸出層之外的所有層使用ReLU,以及在鑑別器中的所有層使用LeakyReLU。
Paper link: https://arxiv.org/abs/1511.06434
3. Wasserstein GAN
本文提出了一種Wasserstein GAN(WGAN)來優化GANs的訓練過程。藉助於WGAN,作者避免了模式崩塌等問題,並提供了可以除錯和超引數搜尋的學習方式,使用weight clipping來進行了一個Lipschitz約束,但是將在下一篇文章中看到另一種技術,將改進這部分。
Paper link: https://arxiv.org/abs/1701.07875
4. Improved Training of Wasserstein GANs
這篇論文發現,有時WGAN可能會出現不滿意的結果,如產生不好的例子,不能收斂等。這是由於上面提到的weight clipping的使用。在這個工作中,研究人員提出了一種替代weight clipping命名梯度懲罰的方法,把這種結構稱為WGAN-GP,並表明這種技術的使用極大地提高了WGAN的效能。
Paper link: https://arxiv.org/abs/1704.00028
5. On the Regularization of Wasserstein GANs
為了提升GAN訓練的穩定性,這篇論文提出了一種新的懲罰項來加強Lipschitz約束。他們把這種結構稱為WGAN-LP,並且在他們的實驗中,他們把它與上面提到的WGAN-GP進行比較。
Paper link: https://arxiv.org/abs/1709.08894
下面的論文提出了新的技術和結構,可以作為最前沿的tricks 來使生成式對抗網路的訓練變得穩定。
6. Is Generator Conditioning Causally Related to GAN Performance?
本文提出了一種重要的技術Jacobian Clamping。通過該技術的幫助,研究者提供了GAN生成器的conditioning 和由這些GAN生成器表示的模型的“質量”之間存在因果關係的證據。
Paper link: https://arxiv.org/abs/1802.08768
7. Neural Photo Editing with Introspective Adversarial Networks
在這篇論文中,作者提出了感知影象編輯器(Neural Photo Editor),它是一個影象編輯介面,可以用生成神經網路的能力來對影象進行比較大的語義層面的合理修改。為了解決達到準確重建而不損失特徵性質,作者提出了內省對抗式網路(Introspective Adversarial Network),該網路將GAN和VAE創新地結合在一起。通過使用基於權重分享的擴張卷積(weight-shareddilated convolutions)計算塊,該模型可以有效的獲得遠端依賴(long-rangedependencies),並且通過正交正則化(Orthogonal Regularization)這樣一個新的權重正則化方法,提升了泛化表現。作者在CeleA,SVHN和CIFAR-100資料庫上驗證了模型的有效性,並且產生了具有高視覺保真度的樣例和重構圖片。
Paper link: https://arxiv.org/abs/1609.07093
8. GANs Trained by a Two Time-Scale Update Rule Converge to a Local Nash Equilibrium
在這篇論文中, 作者引入兩種基於時間尺度的跟新規則,它們被證明可以收斂到穩定的區域性納什均衡。
Paper link: https://arxiv.org/abs/1706.08500
9. Spectral Normalization for Generative Adversarial Networks
這篇文章提出一種稱為spectral normalization的新的權重歸一化技術,以穩定GAN鑑別器的訓練。
在高維空間中,鑑別器做出的密度比例估計往往不準確,而且在訓練中非常不穩定,生成器網路也難以學到目標分佈的多模態結構。更糟糕的是,當生成的和目標資料分佈區域不相交的時候,就存在著一個能完美區分生成的資料和目標資料的鑑別器。一旦遇到了這樣的狀況、訓練出了這樣的鑑別器,生成器的訓練就基本停滯了,因為這樣產生的鑑別器的關於輸入的導數就成了0。這種情況讓作者們思考如何引入一些新的限制,避免訓練出這樣的鑑別器。在這篇論文中,作者們提出了一種新的權重正則化方法,稱作“spectral normalization”(光譜標準化),它可以穩定鑑別器網路的訓練過程。這種正則化方法的性質很讓人喜歡:(1)只需要調節Lipschitz常數一個超引數,而且想到達到令人滿意的模型表現也不需要反覆除錯僅有的這一個引數;(2)方法的實現非常簡單,額外的計算開銷也很小。
Paper link: https://arxiv.org/abs/1802.05957
10. Generalization and Equilibrium in Generative Adversarial Nets (GANs)
泛化能力是衡量生成模型好壞的一個重要標準,本文指出 JS 散度、Wasserstein 距離都不能很好地衡量模型的泛化能力,為此,文中提出了一種基於 discriminator 的 neural network divergence/distance,用於衡量模型的泛化能力。此外作者還證明了 WGAN 的純策略納什均衡解的存在性,並提出MIX+GAN(混合策略 GAN)的訓練模式,該模式在實際訓練中更穩定,並且證明了混合策略納什均衡解的存在性。
Paper link: https://arxiv.org/abs/1703.00573
https://www.kdnuggets.com/2018/10/generative-adversarial-networks-paper-reading-road-map.html
(本文經授權轉載自“專知”,ID:Quan_Zhuanzhi)