為什麼現在的CNN模型都是在GoogleNet VGGNet或者AlexNet上調整的?

時間 2021-05-06 03:06:26

1樓:唐永毅

因為會被review說人家用vgg做出來的結果你為什麼用resnet,是不是藏著什麼不可告人的秘密。然後乙個reject甩你一臉

2樓:你我他

牛人領進門,調參靠個人。現在牛人把研究方向轉向其他更重要的方向了吧,刷imagenet就靠我們自己了,貌似1000類的task都刷暴了。

3樓:羅若天是真的菜

其實今年新結構也不少,wide resnet,stochastic depth resnet(似乎在imagenet上不work),densenet(這個好像更promising),fractal net等等。。

當然這些要經過不同任務的檢驗才能變為大家通用的。

4樓:小澤

有些文章是在卷積層結構上做文章,比如Min Lin的Network in Network,Kaiming He的Residual Learning。也有你說的在網路框架上做文章比如AlexNet,VggNet。

5樓:Qingnan

為什麼?因為深度學習學習的引數灰常多,其中可以手動調整的引數也很多,這使得深度學習和其他的機器學習演算法不一樣。每遇到乙個新的任務,必調的肯定有這麼幾個(針對影象和sgd的話),層的數量,feature的數量,kernel size的大小,學習率等。

如果每次遇到乙個task,使用者都挨個試一遍得累死了。。這幾個模型都是經典的分類模型。

更重要的是人家在imagenet上訓練好的引數對於分類任務已經很不錯了,遇到乙個新的分類問題直接套他們的引數,效能會有極大的提公升。

6樓:

換了個模型可能就不work了,多少層,每層的引數都是調參的經驗結果。當然根據已有的模型來開發新模型不會使得結果變得太差。

為什麼CNN中的卷積核一般都是奇數 奇數,沒有偶數 偶數的?

rucinier 設輸入特徵圖尺寸為 輸出尺寸為,卷積核大小K,步長S,padding為p,那麼輸入和輸出之間滿足 在一般情形下,S 1,O i,那麼上式可以化為 可以直觀地看出K是奇數。 使用奇數尺寸的濾波器的原因 數字影象處理 第三版 阮秋琦翻譯 p89 也可以使用偶數尺寸的濾波器,或使用混合有...

為什麼現在推薦系統喜歡用雙塔模型?雙塔模型相較於單塔有什麼優缺點?

dragonfly 假定雙塔是user和item雙塔,一般這種結構多用在召回 粗排這種因為待打分item多導致效能跟不上的場景。這種雙塔導致了late fusion,cross feature無法使用等,會拉低模型效果。另乙個意義上的雙塔是指對bias資訊用單獨的tower建模,好處是更靈活更好的對...

為什麼CNN中的卷積核一般都是正方形,沒有長方形?

韓公升 我首先想到的是,數學上方陣要比任意矩陣容易操作。但是我沒寫過CNN底層,學的一些皮毛也告訴我反相傳播可以不需要求逆,所以僅僅是沒啥根據的懷疑,希望拋磚引到玉。 武俠超人 NLP領域中的很多都不是正方形啊。舉個最簡單的例子,最基礎經典的CNN做文字分類,卷積核長度是embedding的長度,寬...