卷積神經網路的通道數隨著網路深度逐層加倍是有依據的嗎?

時間 2021-12-29 20:26:40

1樓:Crimson Sky

我覺得可以從這個角度來理解,因為深度增加,downsample的次數也增加了,這樣會丟失很多資訊. 為了彌補這些損失,我們就需要增加channel的數量,以達到捕捉更多資訊的效果.

換個角度的話,由於深層特徵圖尺寸小,增加channel數量對視訊記憶體和計算速度的影響沒那麼大,所以就在這些地方擴大channel量

2樓:

你可以看一下我的這個回答

卷積神經網路中卷積核是如何學習到特徵的?

然後,你說的沒錯,原始影象的特徵資訊是最完整的,但是為啥還要卷積呢?因為原始影象比如1024乘768的影象,你算一下多少個畫素點,如果作為輸入,下一層(隱含層)有10的5次方個神經元的話,你算算有多少個引數,但是如果用卷積核來卷積,即便用了100多個卷積核去提取特徵,引數比起我剛才說的原始影象減少非常非常多,這就是我們需要CNN的原因。還有就是既然卷積了,換句話就是縮小了影象,那為了保證影象精度最大程度上不丟失,就需要多個卷積核,這樣就可以保證在降維的同時不失真。

然後CNN的層數越多,越深,理論上整個網路中的引數也就越多,學習到原始影象的特徵也就越全面。

3樓:Stephen

有,那是因為通過pooling 或 conv strides=2 下取樣了以後,輸出的長寬變小了,為了防止特徵資訊丟失,輸出通道數要加倍。卷積層的作用本來就是把輸入中的特徵分離出來變成新的 feature map,每乙個輸出通道就是乙個卷積操作提取出來的一種特徵,輸出通道數越多就代表提取出的特徵就越多(但也可能存在重複的特徵)。

如果特徵影象被縮小了一半,又不增加通道數就很有可能會丟失特徵資訊。所以並不是每一層都比前一層通道數加倍,一般只有在pooling將採用的時候加倍,希望採納!

卷積神經網路中,那個卷積輸出層的通道數 深度 的計算?

小心心 Fig.1影象卷積過程gif 關於這個問題,可能剛接觸卷積神經網路對這個都會有很多誤解。今天就來大體一說,根據從 笑可結緣https 那裡得到的圖 侵刪 一般我們的影象在輸入的時候是有通道的,例如黑白影象是單通道的 input channel 1 rgb是3通道的 如Fig.1所示,inpu...

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...

卷積神經網路(CNN)和迴圈神經網路 RNN 有什麼區別?

不存在的1990 從字面區分 cnn 裡面的 c指 convolutional operation,是一種提取影象特徵方法。把這一operation加入到layer裡面構成了convolutional layer。rnn裡的r 指recurrent,中文是重複的意思。rnn構造的結構也是recurr...