pytorch訓練二分類器,訓練集loss下降的很慢或者剛開始較快然後越來越慢,大佬們這是什麼原因呢?

時間 2021-05-12 18:49:52

1樓:披著狼皮的羊

模擬考試:作為差生的時候,隨便努力一點就可以取得很大進步,差生的進步空間很大;變成學習好點的學生後,同樣努力的條件下,進步沒那麼明顯;當達到這個學生的最大潛力時,即使再努力也沒有進步。訓練model也是如此。

2樓:

首先得看valid和test資料集一起看。

現在假設valid和test資料集上表現一致嗎,並且結果表現不好。那麼就是underfit的問題。我假設這裡資料準確,資料量足夠(其實很難滿足)。

那麼問題就是需要用更優良的模型。當然也得注意一下你用的learning rate是多少。可以先用adam+小的learning rate嘗試一下。

3樓:套娃的套娃

如果上來就下降得很慢,同時loss很低說明沒問題,只不過是因為你的輸出趕不上它收斂速度而已,簡單來說就是,假如說你每2000個iteration輸出一次,但是人家模型在第200個iteration就收斂了

剛開始快後來慢,如果慢的時候loss很低,這個不是很正常嗎,但是如果很慢的時候loss依然很高有兩種情況,第一是陷入區域性最小值,這個需要多次初始化模型試幾次,或者等待一段時間優化器自動跳出區域性最小,第二是模型複雜度不夠擬合,加大模型就好了

4樓:Jenson

第一,你的分類器可能已經載入了預訓練權重,本身表現很好了。第二,lr過大。這些都不是重點,要看你的acc等指標值表現如何

pytorch分類損失 二分類 ,穩定的損失值在10的負一次方量級正常嗎?

清風笑煙雨 個人感覺你的標籤有問題,要麼就是類別數沒設定對。你應該看一看損失曲線在降低沒有,二分類這個這個量級,測試結果應該不好看吧 學無止境 模型沒有使用預訓練模型嗎,使用的話是自己寫的loss函式嗎,如果以上都存在,那麼loss高很正常。如果使用預訓練,使用torch自帶bceloss,那麼資料...

訓練好的GAN判別器是否能直接用於二分類?

會程式設計的木盆子 我覺得你的意思是不是,單類別檢測?gan處理的應該是單類別。如果你的兩個類分布均衡,正常的分類網路比較好,如果是異常檢測,本質是單類別,可以使用gan 木頭 不能,兩者的目標根本不一致。SVM或者二分類神經網路,是訓練乙個判別器來判別正例和反例兩種樣本,輸出1 0表示正例 反例。...

二分類問題,應該選擇sigmoid還是softmax?

讓cpu飛一會兒 看大部分回答都是根據主觀經驗和直覺直接得出兩者沒什麼區別的結論,我就從公式推導層面來嚴格推導一下吧。softmax交叉熵損失 log exp sp exp sp exp sn log 1 exp sn sp logsumexp 0,sn sp max 0,sn sp sigmoid...