於深度學習(CNN)模型構建的幾個問題?

時間 2021-05-12 06:25:58

1樓:我是遊客使用者

我又把我的問題整理了一下,找到了一些規律但是不知道為什麼。

乙個模型:CNN,用於處理一維資料

13000條20個特徵的資料集(13000*20):

inputshape(20,1),

使用conv1d,MaxPooling1D模型結構如下:(中間重複部分省略)

為減少干擾項,我把pool都去掉了,只試卷積層引數。在設定層數和卷積步長(kernel_size)時,conv卷積層超過20層(我知道層數太多效果不一定好,但是驗證過程中出現這個問題我想搞懂):

報錯Negative dimension size caused by subtracting 2 from 1 for 'conv1d_21/convolution/Conv2D' (op: 'Conv2D') with input shapes: [?

,1,1,16], [1,2,16,16].

並發現如下規律:(層數是指卷積層數,數字是指kernel_size值)

和20幾沾邊的我只能想到維數(我的資料集是20維的),但是按理說卷積不損失維數,所以不懂為什麼有限制。

2樓:劉冬煜

1. 完全可以用迴圈新增,最好可以把各層寫成class,比如用Layer_Base作為基類,保留啟用、求導、存檔、讀盤等等各界面的虛函式,然後不同層級(卷積層、池化層、啟用層、全連線層等等)繼承這個基類,實現虛函式。在CNN類裡面用乙個vector存所有層就可以。

2. 卷積核數量一般根據經驗和個人習慣新增,往往習慣用2的整冪。如果效果不好,可以考慮修改網路結構。

3. 沒看明白你啥意思。

4. 同3。能把你MaxPool和Conv2D兩個函式的實現發一下嗎?

貪心學院 深度學習是很多模型的疊加,這種深度模型跟淺層模型相比有什麼優勢呢?

Hanamaki 有一種說法 在自然語言領域,淺層模型解析的是語法結構,深層模型解析的是語義結構,例如 我愛北京和北京愛我 從語法上來說兩個都是對的,都是主謂賓,但是從意義上來說,第二句不對因為北京是個地點無法有愛這種動作。語義建模 或語義語法 通常與語言建模 或語言語法 相比較,我們現在從二者的定...

深度學習模型有哪些優秀的組合應用?

星辰大海 殘差網路 Squeeze and Excitation Network SENet 軟閾值化 深度殘差收縮網路。首先,殘差網路 又稱深度殘差網路 深度殘差學習 是一種卷積神經網路。相較於普通的卷積神經網路,殘差網路採用了跨層恒等路徑,以減輕卷積神經網路的訓練難度。殘差網路的一種基本模組如圖...

深度學習獲得模型,一般都是過擬合的 但在深度學習中,過擬合不是貶義的 why

勤而勉之 你這問題內容有問題。對於一般的深度學習問題,我們希望時的loss能夠越小越好。但是由於資料中包含有雜訊,所以不能夠完全擬合,否則就會使得學到的模型不能很好的用於測試集。但是對於一些特殊資料,資料中不包含雜訊,比如從微分方程中獲取到的資料,這個時候可以想辦法讓訓練loss降低至0 1 這時沒...