unet影象分割效果不理想,有什麼改進方法?

時間 2021-05-30 18:12:47

1樓:星衡科技

(1).資料預處理。在將影象輸入到UNet網路前,先對影象進行預處理,比如歸一化,標準化等。

(2).資料增強。資料集較少的話可以對影象進行資料增強,比如旋轉,翻轉,平移等

(3).模型訓練收斂。訓練的時候需要看模型是否收斂,可以將train_loss和valid_loss曲線圖畫出來看看。

(4).調節權重。看看白色和黑色的資料量是否是均衡的,資料不均衡的話在計算loss的時候可以設定不同的權重來調節下。

2樓:我也不知道該咋起

可以在預處理上新增相應的資料增強(翻轉,剪下,旋轉等),如資料量較本身較少,可減少網路通道數。另外,目標區域相對較小,可以嘗試focal loss。

3樓:

根據題主展示的兩張影象,感興趣的目標尺寸非常小,在本人最近的實驗中發現,對於尺寸極小的目標,U-Net分割效能很差,分割效果也正如題主圖2所示的樣子。關於這個問題,本人目前也尚未完全解決。為了緩解這個問題,本人借助GoogleNet的思想,使用了不同尺寸的卷積核替代了原始的卷積核,這樣做可以獲得更多解析度的特徵圖,再加上U-Net的跳躍連線操作,能夠融合更多的資訊,結果發現,這樣做之後,在不同尺寸的目標上的分割效能都有提公升。

題主也可以試試引入多尺度資訊試試能否提公升分割效果。

基於自動閾值的影象分割?

飛水狗 傳統分割演算法無非是feature representation和feature space analysis,其中乙個問題說明一下分割基於什麼特徵是什麼就可以了。看你的描述,彩色圖就是color space,灰度圖是intensity。另外演算法最好找準應用場景和適用範圍,這樣解答起來清晰...

Attention機制可以應用在影象分割的改善中嗎?

我說說我對attention的理解吧。Attention有兩種,一種是新增先驗來引入attention,比如你想分割乙隻狗,你可以先檢測出這只狗的bbox後再對這個bbox內的狗進行分割,這就是attention,這個attention是在訓練階段人給的先驗 Bbox 這個實際上也是mask RCN...

當前主流的影象分割研究方向都有哪些?

汪博士 FCN,SSD,Deeplib等以深度學習為基礎的演算法為主流。建議,如果是要做專有的影象分割,這類演算法使用前要稍微慎重些。主要原因就是這些演算法都需要大量標註樣本的支援。 已登出 DeepLab FCN CRF crf as rnn DeepMask Fully Convolutiona...