如何評價最新的YOLOv3?

時間 2021-05-06 19:31:40

1樓:曦微

講一點缺點:對特別多的特殊姿勢(360°每個角度物體都有它不同的旋轉角度後的姿態),並且遮擋嚴重的小物體識別效果不佳,我不知道為什麼特別得要用矩形去標註,但我覺得這可能讓在以上兩種情景之下的識別環境變得複雜,識別率一般。具體的,由於多角度旋轉和遮擋嚴重,實際識別它總會識別出更大的範圍,在它的理解中,那部分多餘的範圍是原本訓練中被遮擋的物體。

而對於無特殊姿勢的物體,這種場景下,識別效果如大家所說。

2樓:popper0912

關於 darknet 中如何將兩張單通道的灰度影象合併成乙個雙通道的灰度影象一起訓練,darknet 中的輸入資料支援嗎, cfg 檔案如何寫

3樓:Leon Wu

兩點改進對結果提公升比較大:

fpn結合

基礎網路加大

欣賞作者,文章很有意思。不像rcnn那麼學術,作者像是在玩耍。

我將yolo v1 v2 v3 都移植到了caffe中,用mobilenet這類網路可以更方便的訓練。效果確實逐步提公升,很好用,

還把yolo 跟rcnn結合起來,實現速度比較快的yoloRcnn, 另外還將yolo與mask-rcnn 結合起來,mask這一分之的task,確實如mask-rcnn文中所說的對檢測有提高左右。

4樓:

到目前為止,速度和精度最均衡的目標檢測網路。

浩克匠心:【目標檢測簡史】進擊的YOLOv3,目標檢測網路的巔峰之作

浩克匠心:【目標檢測簡史】YOLOv3的實景大片兒

5樓:小小將

小白將:目標檢測|YOLO原理與實現

小白將:目標檢測|YOLOv2原理與實現(附YOLOv3)

圖15 YOLOv3網路結構示意圖(VOC資料集)

6樓:墨硯

darknet53 利用conv 3x3/2 來代替pool進行feature map的裁剪降維,在每次conv 3x3/2時channel都進行了翻倍,同時利用了大量1x1的卷積進行channel的降維。

只想知道(努力實驗中):

1. 把darknet53主幹移到ssd會有什麼效果。

2.換成depthwise conv會有什麼效果。

3.bn??

D大的且感興趣的搞定了能不能告訴我(溜了)。

7樓:咖哩

試煉了一下v3,在v2上改了一下,精簡了下網路。對於v3給的yolov3-voc.cfg,有乙個不太明白的地方,就是從3個尺度進行回歸的時候,這三個尺度的anchor都是一樣的,我覺得不應該一樣啊。

因為3個尺度的feature map大小就不一樣。難道是自己理解出了問題,還請大家指正。

8樓:

雖然作者沒說,但可以看出文中的模型借鑑了squeezenet的思路,模型加深的情況下並不會增加太多計算量。其他內容,比如loss,目前沒看出和yolo2有啥巨大區別。

各位大佬,我想請教一下目標檢測yolov3 有什麼優化策略?

王小二 想優化,首先得看到yolo v3的不足。典型的兩個問題,召回率不足,定位精度不夠。召回率不足可以把原本的loss改為focal loss 和ohem的組合。用了focal loss的時候原文的ignore引數需要適當低0.1到0.2的樣子。定位精度不夠可以用giou或者iou loss並且把...

如何評價《巫師3》的最新DLC《血與酒》?

劉亞 高曉松的曉說。他的標誌性言論是,這世界不謹只眼前的苟且,還有詩與遠方。了解過去了解世界,想想還有多少你可以做卻沒做的事等待你去實現。 看到一些觀點事實震撼到自己的價值,有時候是一件很爽的事情。我有個書單,把比較影響我的書列在了裡面。衝擊我觀念的20本書 但確實,真正影響人的還是自己的親身經歷,...

如何評價《崩壞3》最新動畫短片《天使重構》

畫畫的黃翰傑 只能說太厲害了,三渲二已經可以做到這麼好的效果,而且還是國內做的,不可思議。公尺哈遊最令人佩服的是堅持日系二次元風格,在這條路上做了很多探索,並且也引進了很多日本的專家和流程,在短短幾年內讓中國動畫 遊戲迅速的趕上了日本的頂尖水平。很期待公尺哈遊將來的大電影。由於國內的市場和資金都遠遠...