深度學習模型訓練好後效能就確定了嗎?

時間 2021-07-11 10:45:01

1樓:Scott

應該是說訓練之後得到的weight是固定的,沒法再更動的。用來推論或是辨識的話,precision的高低也是確定的。所以要得到較高precision的訓練權重,這在訓練時就必需不斷的對model調參,以確保最後得到的weight有高的準確率。

2樓:負十二分之一

你依然可以用pre-processing,post-processing,test-time augmentation,model ensemble等方法繼續提公升效能啊。

3樓:DLing

模型訓練好以後只能說當前狀況下效能是確定了,但是只要是乙個深度學習任務,肯定是可以繼續優化下去的,主要看你關注的點有哪些?通常下來,優化的方向有下面幾點:

1. 模型本身的準確率指標優化;這個可以通過加資料,提公升資料質量,影象增強,嘗試新的模型結構,使用更符合任務的損失函式…

2. 占用計算資源,推理速度的優化;這個可以通過輕量化模型,模型剪枝蒸餾,高效能推理方式(如TensorRT,半精度,INT8等)…

3. 降低維護成本方向的優化;可以通過充分理解任務,進行模型任務的合併,減少工程負擔,也可以在資料質量維護上面動動腦筋,降低公司成本…

其實只要有心,可以優化的地方肯定是很多的,下面有乙個我寫的一篇關於演算法工程師怎麼入門高階的回答,以及模型準確率很高了怎麼創新的回答,可能能給你思路。

DLing:計算機視覺應該怎樣入門?

DLing:深度學習前人精度很高了怎麼創新?

在深度學習模型的訓練中,其效能不斷變化,應當將何時效能,看作為「最終的」模型效能?

hui dust 機器學習模型中都有訓練集 驗證集 測試集 訓練集資料餵給模型訓練,每輪epoch在驗證集上驗證指標,多輪訓練時取驗證集指標最好的情況作為最終的模型效能。 Fain 一般來說,當多次降低學習率,驗證集的loss依然不下降,則取最近一次下降的模型引數。損失不下降說明模型已經到達了不錯的...

深度學習裡面訓練模型的時候,為什麼新增正則項它的超引數都是自己調的?

走在邊沿上 一般,乙個引數之所以成為超引數,要麼是因為關於它的任何資訊都不能被訓練資料集表示,要麼是因為一旦讓它成為trainable的,我們總會得到乙個trivial的值。從第乙個角度看,正則化的本質是限制目標函式空間的大小,保證目標函式的smoothness。資料集本身顯然並不會包含關於它的任何...

深度學習中模型訓練的通用流程是怎樣的?

妞妞 簡單的說一下通用的流程,當然訓練不同的模型,可能會多加一些處理。第一步,資料預處理,獲取資料後,需要對資料進行篩選,分訓練集 測試集以及驗證集等 第二步,將資料輸入到神經網路 這裡可以根據資料多少構建合適的神經網路,防止出現過擬合和欠擬合 即每個神經元的輸入值加權求和再輸入到啟用函式,得到輸出...