卷積神經網路的特徵是如何學習的?

時間 2021-05-05 14:16:26

1樓:Mario

你好,剛剛答辯完。老師也提了同樣的問題,卷積是如何提取特徵的?

答:從傳統影象特徵提取方法來看,卷積核其實就是很多個不同的濾波器,傳統的濾波器是人工設定的,用來提取指定的特徵,比如gabor,canny等。而卷積神經網路中的卷積核是網路隨機初始化之後再通過梯度下降演算法來進行更新,根據你指定的label來不斷修正你卷積核的引數,使得能更好地提取到影象的特徵,其中包括顏色,紋理,尺度等,並且具有很好的魯棒性。

2樓:zighouse

卷積神經網路的特徵是在設計好卷積神經網路結構模型並且做好配置之後,使用預先標定好的資料進行大量有監督的訓練而學習到的。當訓練資料中如果考慮幷包含了狗臉類別的樣本時,可以在訓練好之後結合使用相應的權重資料檢測到狗臉。

3樓:Sirius

這個問題我當年畢業設計的時候老師也問過。

特徵是如何學習到的?這個問題其實可以拆成兩個問題:

特徵是如何提取的,提取器的機理是什麼?

網路如何通過學習,優化特徵提取器?

對於這兩個問題需要分開作答。我估計你老師想問第乙個問題

卷積角度理解。個人理解卷積神經網路其實本質的計算過程不是卷積,而是內積。但是為什麼取卷積的名字,是因為需要借鑑卷積的物理含義,即卷積核的濾波作用。

學過傅利葉變換FT的同學可能知道,對一維時域訊號(或二維空間域)上進行卷積,相當於對其頻域進行過濾,提取其中高頻,低頻,或某個頻帶上的資訊(二維影象更複雜,不僅包括頻率,還有方向性等),通過逐層的卷積運算,與特徵組合,就可以抽樣出一系列代表人臉的特徵出來(如臉型輪廓,鼻子,嘴眼鏡形狀等),而濾掉不必要的資訊(如背景,衣服等)。這是利用卷積進行特徵提取的過程。

內積角度理解。剛剛說卷積神經網路本質上是內積運算,其實我們也可以從內積的角度理解。

內積,學過向量的人都知道可以作為相似度的依據。兩個向量(模固定)內積越大,則方向越趨同,相似度越高。卷積核在滑移卷積時,其實就是提取和它相似的特徵。

通過組合與不斷抽象,最後提取到一系列代表人臉的特徵。

這個就沒啥說的了,原理就是梯度降+反向傳播,不同的優化器其實說白了,就是隨機選取計算樣本(隨機梯度降SGD),調整剃度方向(利用動量),以及調整學習率(經典的Adam)

4樓:

沒關係的,你這答辯老師也是個二把刀,如果非要問如何學習的,答案就是梯度下降學到的,這沒有任何問題。非要往特徵上面扯沒什麼必要,因為這嚴重依賴於網路結構,非線性的網路你非要說什麼特徵向量這種線性系統的話也沒啥意思。

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...

什麼是卷積神經網路?

弗拉基公尺爾 神經網路可以理解為多元線性回歸。卷積神經網路可以理解為矩陣形式的多元線性回歸。不知道這樣理解對不對。那就這樣說應該不會有錯 卷積是乙個提取特徵的函式. 憤怒的葡萄 不請自來 首先artificial NNs的目的就是他們能夠被用作乙個任意函式逼近的方式,CNN也是一樣。CNN就是在原有...

特徵視覺化中,反卷積神經網路的卷積核為什麼可以是原卷積核的轉置?

打滾敬神 結論 使用轉置卷積,運算後,能夠將被啟用的神經元對應的感受野的原始位置的灰度值設為非零值 對於不能被啟用的神經元對應的感受野對應位置的灰度設為0 可能不嚴謹,只是對應分量丟失,見下面推導 引用縱橫同學的Setting 略有區別,我用的是列向量 縱橫 CNN視覺化從入門到放棄 懶得打late...