如何形象又有趣的講解對抗神經網路(GAN)是什麼

時間 2021-05-12 05:14:40

1樓:

GAN是乙個基於取樣的對隨機分布的配準系統。

影象配準是指對於給定的兩幅影象I1和I2,我們尋找乙個二者之間的變換T,使得T(I1)與I2 之間的差異最小化。類似的,GAN是對於乙個給定的初始分布(一般是高維高斯分布)P1和乙個目標分布P2(目標資料分布),構造二者之間的變換。只不過這裡P2是靠取樣(訓練樣本)來進行非引數化的描述的。

從這角度,判決器就是從取樣來估計出分布P2,生成器就是變換T。

所以,這更問題就是乙個經典的影象配準問題的變種。

2樓:

理論上GAN不一定要用神經網路,只是神經網路比較常用。

G的設定一般是輸入乙個向量,然後把它攤成一張圖,可以再連續走若干個轉置卷積變成高解析度圖。

3樓:YaoYong

生成對抗網路分為:1.生成模型,2.

鑑別模型。其中,生成模型從無到有不斷地生成資料,而鑑別模型不斷鑑別生成器生成的模型;二者不斷對抗,生成模型拼命生成不讓鑑別模型識別出來的資料,鑑別模型拼命鑑別生成模型生成的資料;二者不斷成長,得到最好的生成模型鑑別模型

具體推倒如下:

首先是符號說明, 注意GAN,主要學習的是資料的分布,最終得到的是兩個一樣的資料分布。

定義資料分布,generator,discriminator等輸出

定義鑑別模型:

當鑑別模型輸出D(x)為1時,即可以輕鬆判別資料,此時上式取值最大。

當鑑別模型輸出D(G(z))為0時,即鑑別模型輕鬆地鑑別出生成模型的資料,此時上式取值最大。

故而為了鑑別模型越來越好,定義以下目標函式:

很顯然,最好的鑑別模型是使得V(G,D)最大的,即:

當鑑別模型取最好的時候,最好的生成模型即使得目標函式最小的,如下:

然後這個問題就轉變成了最大最小問題:

這個問題真的有最優解嗎?下面證明這個問題。

先證明有最優鑑別模型:

得到最優鑑別模型是

下面我們再來考慮一下GAN最終的目的是,得到生成模型可以生成非常逼真的資料,也就是說和真實資料分布一樣的資料,此時鑑別模型的輸出為:

其中,資料分布一樣

當DG輸出為0.5時,說明鑑別模型已經完全分不清真實資料和GAN生成的資料了,此時就是得到了最優生成模型了。

下面證明,生成模型存在:

充分性:

必要性:

上式最終可以轉化為KL散度,如下:

KL散度永遠大於等於0,可以知道目標函式最終最優值為-log4。

以上即是,GAN證明的推倒。

Goodfellow I, Pouget-Abadie J, Mirza M, et al. Generative adversarial nets[C]//Advances in neural information processing systems. 2014:

2672-2680.

An Annotated Proof of Generative Adversarial Networks with Implementation Notes

ST的深度學習筆記

4樓:漫遊奇境

GAN的生成器G是通過辨別器D的指導下,通過迭代,變成可以把隨機分布變成樣本分佈的生成器。

首先判別器D開始訓練,假如訓練到最優,它的表示式應該是訓練樣本概率分布/(生成樣本概率分布+訓練樣本概率分布),之後訓練G開始訓練,它的最優解當且僅當G生成樣本的概率分布=訓練樣本的概率分布。

理論上一次迭代就可以,工程實踐應該是不停的交替迭代。

卷積神經網路的特徵是如何學習的?

Mario 你好,剛剛答辯完。老師也提了同樣的問題,卷積是如何提取特徵的?答 從傳統影象特徵提取方法來看,卷積核其實就是很多個不同的濾波器,傳統的濾波器是人工設定的,用來提取指定的特徵,比如gabor,canny等。而卷積神經網路中的卷積核是網路隨機初始化之後再通過梯度下降演算法來進行更新,根據你指...

神經網路中的能量函式是如何定義的?

雖說這模型有從物理跟生物的啟發,但往這方向說到底,也只是提到跟某公式很像罷了,還是不知道如此定義的原因及作用 知識點 資訊理論,線性內積空間 機率及能量 同時是訊息量 函式定義成那樣的原因是,如此才能使得所有狀態的訊息量都嵌進乙個線性內積空間裡,因為線性實在是太好用,即便最困難的非線性狀態變換,在新...

什麼是二值神經網路,它的前景如何?

Emilylulu 最早的一篇應該是是Bengio組的binaryconnect模型,這個模型用符號函式把weight二值化了,從而把前向傳播中大部分的單精度乘法換成了單精度加法。他們組之後的一篇binarynet進而把activation也二值化了,那麼單精度加法進一步變成了xnor位運算操作。個...