卷積神經網路和BP神經網路的關係?

時間 2021-06-06 08:30:42

1樓:

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展,不要忘了它的思想的根源依然是BP,

至於二維卷積問題,其實影象處理裡邊早都有了各種微分和積分的卷積模板這樣做過的,或許是受這些思想的啟發,卷積的形式可以這樣搞,不熟的話複習下剛薩雷斯的影象處理,拉普拉斯微分卷積、高斯模糊卷積等

廣義的BP就是反向傳播,它是一種思想,貫穿於整個深度學習,不管是RNN、LSTM還是當前最火的CNN,這個BP的演算法也源於BP神經網路的發明,一維的BP大家都好做,二維的BP建議了解下《矩陣分析》這本書中的矩陣微分章節

2樓:沒牙的愛德華

這裡BP應該是backward propagation(反向傳播)吧如果是的話,那麼也許題主的BP神經網路是想說採用BP演算法進行權重更新的神經網路,從這個角度來看卷積神經網路是廣義神經網路的其中一大類,特點是網路層多為卷積層+池化層的組合。

但是一般不會說成BP網路,BP是計算梯度更新權重的一種基本方法,建立在這個方法上的更新策略有SGD/Adam, etc, 並非某一種網路。

的課程pj,自己實現一下全連線網路的BP演算法,這樣基本就能搞清其中的區別和關聯了。

卷積神經網路(CNN)和迴圈神經網路 RNN 有什麼區別?

不存在的1990 從字面區分 cnn 裡面的 c指 convolutional operation,是一種提取影象特徵方法。把這一operation加入到layer裡面構成了convolutional layer。rnn裡的r 指recurrent,中文是重複的意思。rnn構造的結構也是recurr...

什麼是卷積神經網路?

弗拉基公尺爾 神經網路可以理解為多元線性回歸。卷積神經網路可以理解為矩陣形式的多元線性回歸。不知道這樣理解對不對。那就這樣說應該不會有錯 卷積是乙個提取特徵的函式. 憤怒的葡萄 不請自來 首先artificial NNs的目的就是他們能夠被用作乙個任意函式逼近的方式,CNN也是一樣。CNN就是在原有...

卷積神經網路引數個數?

我覺得應該是208,雖然是三通道,但是,每個卷積核和三個通道進行運算時,引數都是一樣的,說608應該是說總共有多少個引數,比如2個w1,你說是乙個引數還是2個引數,說兩個確實是2個,說乙個也確實是乙個,都是w1,不就是乙個麼,所以可能理解不同,608說的是數量,208說的是種類 行者隨緣 說608的...