卷積神經網路引數個數?

時間 2021-05-06 23:21:19

1樓:

我覺得應該是208,雖然是三通道,但是,每個卷積核和三個通道進行運算時,引數都是一樣的,說608應該是說總共有多少個引數,比如2個w1,你說是乙個引數還是2個引數,說兩個確實是2個,說乙個也確實是乙個,都是w1,不就是乙個麼,所以可能理解不同,608說的是數量,208說的是種類

2樓:行者隨緣

說608的回答的計算方式都是對的,可以看看MobileNet那篇文章,文中為了說明spearable conv的計算量更少,對傳統卷積的計算量和參數量都做了詳細的描述

3樓:Mr.腦

這個表裡面不但conv1,conv2引數個數錯了,下面的fc3,fc4,softmax引數個數都寫錯了。fc3是400×120+120,而不是加1。

4樓:tsunderetortoise

是208。這裡CONV1的引數只要算filter的引數,為5*5*8+8=208;同理,5*5*16+16=416為CONV2的引數。

5樓:乙個閒人

應該是608,參看Memory usage and computational considerations,參數量需要乘以前層通道數。和知乎內另乙個類似問題的回答。

6樓:chenxingwei

是608!Ng應該弄錯了。我們在做卷積的時候,卷積核的大小為[width, height, depth, output], width和height是卷積核的大小,depth是卷積核的深度,這個深度必須和前一層的輸出的深度相同,output為輸出的深度。

所以在Conv1中是需要乘以3的。

7樓:Ryan

當然不是608,208是正確的。5*5*8+8=208。前提是用了bias。你乘3幹嘛,又不是separable conv 操作

卷積神經網路中學習的引數有哪些?

劉冬煜 卷積神經網路中有很多執行不同功能的層結構,同時也有很多引數需要學習。其中池化層 包括空間金字塔池化層 reshape層 softmax層是沒有需要學習的引數的,下面我將會盤點CNN中的所有引數。卷積層是CNN的核心,其引數則是卷積核的權值以及各通道的偏置量。其中權值的梯度需要使用反卷積獲得,...

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...

卷積神經網路(CNN)和迴圈神經網路 RNN 有什麼區別?

不存在的1990 從字面區分 cnn 裡面的 c指 convolutional operation,是一種提取影象特徵方法。把這一operation加入到layer裡面構成了convolutional layer。rnn裡的r 指recurrent,中文是重複的意思。rnn構造的結構也是recurr...