卷積神經網路(CNN)和迴圈神經網路 RNN 有什麼區別?

時間 2021-05-12 06:28:06

1樓:不存在的1990

從字面區分:

cnn 裡面的 c指 convolutional operation,是一種提取影象特徵方法。把這一operation加入到layer裡面構成了convolutional layer。

rnn裡的r 指recurrent,中文是重複的意思。rnn構造的結構也是recurrent。

從應用區分:

因為兩者的結構特性,cnn多用於處理影象,rnn一般處理文字,音訊。

2樓:扁豆燜面1.0

我是這樣理解的,CNN和RNN都是資料的特徵提取器。

從功能上講,CNN關注的是空間維度的特徵,比如用CNN處理影象,就是希望可以得到影象的空間區域性特徵,而RNN關注的是時序維度的特徵,比如處理一句話,RNN提取特徵時會考慮某個詞和之前/之後詞的關係。

從效率上講,一般情況下CNN的處理速度比RNN更快,因為CNN的引數一般比RNN少。

但是,並不是說CNN只能提取結構資訊,RNN只能提取時序資訊。TextCNN網路利用CNN進行文字分類得到了不錯的效果,並且執行速度比RNN更快。利用RNN對MNIST分類也可以達到乙個比較高的準確率。

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...

什麼是卷積神經網路?

弗拉基公尺爾 神經網路可以理解為多元線性回歸。卷積神經網路可以理解為矩陣形式的多元線性回歸。不知道這樣理解對不對。那就這樣說應該不會有錯 卷積是乙個提取特徵的函式. 憤怒的葡萄 不請自來 首先artificial NNs的目的就是他們能夠被用作乙個任意函式逼近的方式,CNN也是一樣。CNN就是在原有...

卷積神經網路引數個數?

我覺得應該是208,雖然是三通道,但是,每個卷積核和三個通道進行運算時,引數都是一樣的,說608應該是說總共有多少個引數,比如2個w1,你說是乙個引數還是2個引數,說兩個確實是2個,說乙個也確實是乙個,都是w1,不就是乙個麼,所以可能理解不同,608說的是數量,208說的是種類 行者隨緣 說608的...