1樓:
主流生成模型:
Ian Goodfellow, Tutorial on Generative Adversarial Networks, 2017
可以看到GAN的本質屬性之一是implicit density。個人理解也就是隱式建模迴避了複雜建模過程,你可以全部交給Neural Nets去處理,缺點同樣很明顯:
極度的靈活度帶來訓練的複雜度
很難"理解"資料,因為神經網路迴避了內部細節(這也就是VAE等模型的優點)
當然GAN的改進也是層出不窮,本人暫時沒有研究。
2樓:菜罈子
訓練方法就不同,傳統方法是資料對應標籤的監督訓練,gan直接使用生成器加檢測器(判別器)進行學習對抗。
但總而言之,都是拿資料讓計算機進行學習,它們對應於不同領域的解決方案,又不是可以去解決同乙個例如分類問題的手段,沒太大的可比性吧
3樓:羅若天是真的菜
deep learning免去了feature engineering,gan在我看來可以省去loss engineering。看pix2pix做各種segmentation,colorization,直接乙個discriminator一上,就省去了亂七八糟的loss設計(雖然還沒有人工設計的好)。one size fits all的感覺。
就跟現在大家幹什麼就直接上cnn和rnn一樣,以後大家loss就直接啪的乙個discriminator(無腦猜想)
4樓:
在生成式對抗網路,判別網路相當於提供了一種根據任務、資料集不同而自適應的loss,可以稱之為GAN-loss,相對於loss固定的非對抗網路,更具健壯性。
5樓:賣糰子的小喵吉
個人感覺,gan之所以比其他生成模型更優秀,是因為gan在本質上相當於最優化js距離而不是kl距離。雖然後者會得到乙個更general的分布,但是從生成角度來講,乙個special的分布更能使人感到生成的資料更佳「真實」
生成對抗網路GAN如果只訓練乙個網路會有效果麼?
Chuang 這其實是乙個很有趣的問題。在實踐過程中,如果把判別器 Discriminator 訓練得太好了,看似能夠在對抗中更加有效的拒絕生成器 Generator 生成的假樣本,但是其實一樣會產生諸多問題。判別器最主要的作用就是為生成器提供下降梯度。如果判別器太差,則無法提供有效的梯度,同時判別...
生成對抗網路GAN和強化學習RL有什麼緊密聯絡?
王雋 以下是個人粗淺的理解 兩者相似之處 以RL中的actor critic為例,actor和critic分別相當於GAN的generator,discriminator。critic discriminator通過學習打分策略,對actor generator的表現進行評價 判別。兩者不同之處 R...
對抗生成網路(GAN)為什麼輸入隨機雜訊?
koap 1 為什麼要輸入隨機雜訊 GAN的理論基礎就是,用已知的分布去逼近未知分布。2 可不可以什麼都不輸入 你可以點石成金,但不可以無中生有。 靈劍 因為現在的網路結構沒有隨機性,輸入乙個確定的值就只能輸出乙個確定的值。如果將來有人引入乙個隨機數運算元的話也許就不需要這個隨機數輸入了,但估計得改...