特徵視覺化中,反卷積神經網路的卷積核為什麼可以是原卷積核的轉置?

時間 2021-05-30 08:15:10

1樓:打滾敬神

結論:使用轉置卷積,運算後,能夠將被啟用的神經元對應的感受野的原始位置的灰度值設為非零值;對於不能被啟用的神經元對應的感受野對應位置的灰度設為0(可能不嚴謹,只是對應分量丟失,見下面推導);

引用縱橫同學的Setting(略有區別,我用的是列向量):

縱橫:CNN視覺化從入門到放棄

(懶得打latex,公式直接截圖)

考慮卷積核:

擴充套件為矩陣:

將卷積核矩陣簡寫為:

每個 a_i 表示卷積核在原圖某個固定位置的擴充套件後的卷積向量。

若輸入為 x,卷積後結果為 y,則:

反卷積為(\sum 為矩陣同位置相加):

可以將上面的每一項視為固定位置下的反卷積分量。將 a_i*a_i^T 展開(以 a_0 為例):

即每個 a_i* a_i^T 是由多個對角方塊陣構成的對角方塊陣。

若 y 的某個分量被 ReLU 過濾,則對應 y 分量為 0,對應的 a_i* a_i^T *x 也為0;

若分量不為0,則對應原始位置的值也不為0,但對應的值與原圖不同,被卷積核加權了,對應位置的值為原圖卷積對應位置值的加權和。具體如下:

若卷積核對應位置的原影象素值為:

則反卷積後的值為:

即反卷積後,對應位置的值為卷積核感受野下原圖值的加權和;同一卷積核內,反卷積後對應位置的值正比於卷積核對應位置的權重(保持卷積核本身紋理特徵),同時正比於原圖感受野下影象與卷積核的相關係數(即原圖與卷積核越相似,對應位置影象越高亮);

實際生成的反卷積後的圖為上面多個位置反卷積分量的和。

2樓:沖月

CNN誤差反傳時旋轉卷積核的簡明分析 - zy3381的專欄 - 部落格頻道 - CSDN.NET

其實就是反向卷積,從輸出還原到輸入

3樓:陳俊波

假設是酉矩陣,最後效果也不錯,就這麼用了

卷積神經網路的特徵是如何學習的?

Mario 你好,剛剛答辯完。老師也提了同樣的問題,卷積是如何提取特徵的?答 從傳統影象特徵提取方法來看,卷積核其實就是很多個不同的濾波器,傳統的濾波器是人工設定的,用來提取指定的特徵,比如gabor,canny等。而卷積神經網路中的卷積核是網路隨機初始化之後再通過梯度下降演算法來進行更新,根據你指...

在卷積神經網路中卷積核為什麼都是方形的?

智星雲服務 Why convolutions always use odd numbers as filter size 卷積運算,簡單地說,是兩個矩陣的元素乘積的組合。只要這兩個矩陣在維度上是一致的,就不應該有問題,所以我可以理解你的查詢背後的動機。然而,卷積的意圖是根據濾波器或核心對源資料矩陣 ...

卷積神經網路中,那個卷積輸出層的通道數 深度 的計算?

小心心 Fig.1影象卷積過程gif 關於這個問題,可能剛接觸卷積神經網路對這個都會有很多誤解。今天就來大體一說,根據從 笑可結緣https 那裡得到的圖 侵刪 一般我們的影象在輸入的時候是有通道的,例如黑白影象是單通道的 input channel 1 rgb是3通道的 如Fig.1所示,inpu...