深度學習中,小樣本會出現過擬合的問題,那麼小樣本過擬合的準確率是否是必然高於大樣本非過擬合的準確率呢?

時間 2021-06-26 13:58:12

1樓:雨落晨曦

如果小樣本和大樣本屬於完全同樣的分布,那麼『如果小樣本上都達不到好的結果,是不是說其在大樣本上也必然達不到好的結果』是乙個正確的結論。並且小樣本過擬合大樣本同樣會過擬合

然而在一般問題中,即便小樣本是大樣本的均勻抽樣,也不能在有限抽取次數內達到完全一致的分布,這就意味著小樣本的訓練結果並不一定與大樣本一致,大樣本完全可能不會過擬合,因為由於抽樣並不能完全反應資料分布,大樣本多樣性不存在與小樣本

2樓:應小興

首先,深度學習中過擬合在訓練曲線上有一種比較常見的現象:訓練集loss非常低(如果是分類任務,分類準確率能夠接近100%),但是在驗證集合上loss曲線呈現先降低再公升高的現象,而且最低點可能出現在訓練集未擬合的迭代point上。

當然,在確認過擬合之前,你一定要保證自己資料集分割是否合理,最好的確認方式是交叉驗證,因為如果沒有採用合適的分層取樣方法分割資料集,而是資料集隨機分割很容易造成錯誤的實驗現象(尤其對小資料集合)。

撇開其它,如果模型和方法合理,增加資料量,在一定程度上是會提公升準確率,但這個資料量是有閾值的,也就是說單純從資料量考慮是會飽和的,這時候就需要靠方法和模型的創新,或者能夠獲取更直接有效的特徵資料。

3樓:王小二

你是如何判斷過擬合的?先拋開什麼深度學習,說說提公升樹的訓練。假設我們需要的結果是在2~3的範圍內的資料,第一次給的訓練集是5和7那得到的結果就是小於給的資料就正確了,然後繼續給乙個0,那得到出了小於剛剛給的5,還要大於現在給的0。

怎麼判斷過擬合,還是資料不夠導致的擬合根本不夠。建議多思考

深度學習中 number of training epochs 中的 epoch到底指什麼?

小島上的黑桃六 1 epoch batch size step sample size 1 batch size samplesize batch num 1次 epoch 計算 1次Loss 為後續迭代進行引數修正 1次 step 更新一次 params 對應計算 optimize functio...

深度學習中 Batch Normalization為什麼效果好?

用相對座標取代絕對座標。使在單一神經元輸出產生群體性的平移 放縮後,網路還可以接近0成本地適應新分布。由於不同神經元有功能性分工的差異,這種分工又無法在初始化的時候預知,所以好的初始化只能保證同層的多神經元混合的分布和目標分布 解的分布 一致,不能保證單一神經元的輸出分布和目標分布一致。所以單一神經...

如何深度學習呢?

XYTMR 第一步 先從Coursera 上面 Andrew Ng的課程開始 如果不熟悉python的話同時要惡補一下python的基礎知識 第二步 目前DL 主要的方向是Computer Vision 計算機視覺 和 Natural Language Processing 自然語言處理 可以學習斯...