卷積神經網路中,那個卷積輸出層的通道數 深度 的計算?

時間 2021-06-15 14:44:30

1樓:小心心

Fig.1影象卷積過程gif

關於這個問題,可能剛接觸卷積神經網路對這個都會有很多誤解。今天就來大體一說,根據從網友

笑可結緣https://

那裡得到的圖(侵刪)

一般我們的影象在輸入的時候是有通道的,例如黑白影象是單通道的(input_channel=1),rgb是3通道的(如Fig.1所示,input_channel=3)。Fig.

1中,輸入影象寬為7,高為7,又是rgb3通道,所以其大小為,而卷積核的通道數也應該與input_channel一致為3,而大小的話一般是奇數,例如 等等,加上通道數,我們以Fig.1為例,它用的就是 的卷積核,即三通道的 的卷積核。

也就是說input_channel=filte_channel

output_channel=filte_number。有幾個卷積核,輸出就是幾通道。Fig.1有2個卷積核,所以輸出通道是2。

2樓:不像樣

為什麼不去找本書了解一下卷積層的計算呢?

在卷積層的計算中,假設輸入是H x W x C, C是輸入的深度(即通道數),那麼卷積核(濾波器)的通道數需要和輸入的通道數相同,所以也為C,假設卷積核的大小為K x K,乙個卷積核就為K x K x C,計算時卷積核的對應通道應用於輸入的對應通道,這樣乙個卷積核應用於輸入就得到輸出的乙個通道。假設有P個K x K x C的卷積核,這樣每個卷積核應用於輸入都會得到乙個通道,所以輸出有P個通道。

卷積神經網路中卷積核的翻轉 全連線層的處理和反向傳播的詳細過程?

軒轅十四 1.前向傳播和反向傳播都不用。按計算圖走就是了。所謂的翻轉180 應該是指matlab程式設計需要。2.關於你說送入全連線層時要不要展成列向量?要根據你的資料結構的決定,如果你的全連線層的輸入資料結構是向量,那就要展成向量 3.第三個問題,我理解你的意思是梯度流動沒搞明白。所以反向傳播過程...

什麼是卷積神經網路?

弗拉基公尺爾 神經網路可以理解為多元線性回歸。卷積神經網路可以理解為矩陣形式的多元線性回歸。不知道這樣理解對不對。那就這樣說應該不會有錯 卷積是乙個提取特徵的函式. 憤怒的葡萄 不請自來 首先artificial NNs的目的就是他們能夠被用作乙個任意函式逼近的方式,CNN也是一樣。CNN就是在原有...

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...