在卷積神經網路中卷積核為什麼都是方形的?

時間 2021-05-05 14:16:26

1樓:智星雲服務

Why convolutions always use odd-numbers as filter_size

卷積運算,簡單地說,是兩個矩陣的元素乘積的組合。只要這兩個矩陣在維度上是一致的,就不應該有問題,所以我可以理解你的查詢背後的動機。

然而,卷積的意圖是根據濾波器或核心對源資料矩陣(整個影象)進行編碼。更具體地說,我們正在嘗試對錨/源畫素附近的畫素進行編碼。

通常,我們考慮源影象的每個畫素作為錨/源畫素,我們可以這麼做。事實上,包含乙個步幅stride很常見,錨/源畫素中,由特定數目的畫素分隔。

好,那麼源畫素是什麼?它是以核心為中心的錨定點,我們對所有相鄰畫素進行編碼,包括錨/源畫素。由於核是對稱形狀的(在核心值中不是對稱的),所以錨畫素的所有邊(4連通)的畫素數相等(n)。

因此,不管這個畫素的數目是多少,我們對稱形狀的核心的每邊的長度是2×n+1(錨的每一邊+錨畫素),因此過濾器/核心總是奇數大小的。

如果我們決定打破傳統,使用非對稱核心呢?你會遭受混疊錯誤,所以我們不這樣做。我們認為畫素是最小的實體,即這裡沒有子畫素的概念。

解讀:主要是從畫素編碼的角度看,奇數似乎正好強調了此畫素點,而偶數就會引起平衡或者抵消,消除此點的特點。

在舊的訊號處理域中,當輸入訊號卷積或通過濾波器時,無法判斷A-先驗的卷積/濾波響應的哪些分量是相關的/資訊的,而不是。因此,其目的是在這些變換中儲存訊號分量(全部)。

有GPU需求的朋友在智星雲租用GPU,價效比很高。

2樓:mozillar

卷積運算包含大量矩陣運算和點積運算。卷積核是方的,可以用矩陣儲存,處理起來就更方便。從效果上來說,方的卷積核不一定是最好的,但是大多數情況下用起來都足夠了。

你提的問題很好,其實,不光是你說的圓的卷積核,更一般的形狀不規則的卷積核也有人研究,下面這個例子是中科院自動化所對不規則卷積核的研究 http://www.

cas.cn/syky/201707/t201

70712_4608245.shtml

3樓:雨燕

為什麼CNN中的卷積核一般都是正方形,沒有長方形?

這個問題已經存在,但是我想說兩句。卷積核並非都是正方形的,還可以是矩形,比如3*5,在文字檢測和車牌檢測當中就有應用,這種設計主要針對文字行或者車牌的形狀,能更好的學習特徵。其實我覺得方形矩形影響不大,網路的學習能力是非常強的。

特徵視覺化中,反卷積神經網路的卷積核為什麼可以是原卷積核的轉置?

打滾敬神 結論 使用轉置卷積,運算後,能夠將被啟用的神經元對應的感受野的原始位置的灰度值設為非零值 對於不能被啟用的神經元對應的感受野對應位置的灰度設為0 可能不嚴謹,只是對應分量丟失,見下面推導 引用縱橫同學的Setting 略有區別,我用的是列向量 縱橫 CNN視覺化從入門到放棄 懶得打late...

卷積神經網路中卷積核的翻轉 全連線層的處理和反向傳播的詳細過程?

軒轅十四 1.前向傳播和反向傳播都不用。按計算圖走就是了。所謂的翻轉180 應該是指matlab程式設計需要。2.關於你說送入全連線層時要不要展成列向量?要根據你的資料結構的決定,如果你的全連線層的輸入資料結構是向量,那就要展成向量 3.第三個問題,我理解你的意思是梯度流動沒搞明白。所以反向傳播過程...

什麼是卷積神經網路?

弗拉基公尺爾 神經網路可以理解為多元線性回歸。卷積神經網路可以理解為矩陣形式的多元線性回歸。不知道這樣理解對不對。那就這樣說應該不會有錯 卷積是乙個提取特徵的函式. 憤怒的葡萄 不請自來 首先artificial NNs的目的就是他們能夠被用作乙個任意函式逼近的方式,CNN也是一樣。CNN就是在原有...