使用卷積神經網路處理影象時,使用資料增強和不使用(最終影象數量一樣),理論上哪個效果會更好?

時間 2021-05-30 00:27:55

1樓:Alex Sun

其他回答的答主都自己跑過實驗嗎? 笑死我了

Data Augmentation在絕大多數情況下帶來的在test set上的提公升是顯著的。一般來說,在classification, detection,segmentation等task上。樓主可以嘗試運用:

Mirror Flip, Random Scale, Random Crop, Photometric Distortion等方式來進行Data Augmentation

對於low-light detection, hazy environment detection這樣的task,image enhancement一類的data augmentation帶來的提公升更為顯著。

直接找個像ssd,maskrcnn這樣的工作的repo,裡面有現成的碼

2樓:乙隻北極豹

按照我的實踐經驗,資料質量相同的情況下,大概率是越多越好,也就是8000優於增強的4000。

另外,在實際操作中,一般是每個epoch都對資料進行增強,理論上獲得的是最多n*4000的擴增資料。

單獨去比較4000和8000其實意義不大,探索一下一般的增強(翻轉,旋轉等)隨著資料量的增長,對結果的提公升會怎樣變化,估計更有意義一點。

3樓:

4000張 vs 8000張未增強的資料訓練模型,比較效能。此時對比的是資料集規模對實驗效能的影響。我認為大概率是8000張影象訓練出的模型效果好

8000張 vs 資料增強得到的16000張影象分別訓練模型,比較效能。此時對比的是資料增強對實驗效能的影響,理論上資料增強後的結果應該會好於未增強的結果

8000張 vs 資料增強後的16000張vs 資料增強後的18000張vs 資料增強後的24000張。此時對比的資料增強的數量對實驗效能的影響。

4樓:張小雨

理論上不敢說實際操作經驗來說不使用增強的效果更好。畢竟增強的資料某種程度是偽資料不能引入很多新的資訊只是單純使用一些旋轉翻摺平移移切變換。

關於使用HLS在FPGA上做卷積神經網路(CNN)加速的疑問?

楊軼凡 如果以純軟體角度寫出的HLS在硬體上肯定能跑,但是只是效能非常差。如果想要優化到乙個比較好的效能,就需要硬體的背景了,本人從verilog過渡到HLS就比較自然,把HLS當成一種更加高層次的HDL會比較合適。如果一定想實現,Xilinx現在的PYNQ做的已經挺成熟的了,甚至一些比較普遍的NN...

神經網路影象預處理?

TchaikovskyBear 1 預處理時為什麼需要將影象的畫素值減去乙個固定的值?原答案有誤,這裡的確是有減去乙個固定值,你可以把這個固定值理解為127,為什麼每個通道不同是因為不同顏色的實際使用範圍是不太一樣的,比如R在平時的主要顯示範圍會偏暗一些,所以他的均值就偏小,為123,而B通道的日常...

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...