計算機視覺中,目前有哪些成熟的匹配定位演算法?

時間 2021-05-06 18:37:23

1樓:

opencv自帶的那個surf特徵點配準的是真的不好用,實際幹專案的場景精度很差,每次得等到光照啥的條件好點的時候再配準。

2樓:Ronald

GMS了解一下

要求實時(精度也不差): orb+GMS

要求精度: A-SIFT+GMS

相同程度匹配,速度精度比RANSAC效果好

3樓:餘果

SegICP: Integrated Deep Semantic Segmentation and Pose Estimation

4樓:大臉貓

樓主,你這個專案其實更適合用其他方法來解決,比如先通過找圓定位工件的圓心,再通過找線等一些相對位置關係來做定位,想通過編寫通用的模板匹配恐怕不合適,難度不是乙個等級的

5樓:xmlas

在實際的工程應用中很少採用基於特徵點的方法。因為這樣做很不穩定,容易錯誤匹配,而且定位的精度也不高。在商業的視覺軟體中,halcon的shape-based match和cognex的patmax演算法可以滿足你的需要,他們都是輪廓匹配演算法,可以抗旋轉、縮放和部分遮擋而且精度是亞畫素。

但是只能定位兩個方向的平移和旋轉,典型應用是工業中傳送帶上物體的抓放定位。halcon的輪廓匹配演算法是通過邊緣的梯度方向和梯度值計算匹配度,根據設定的旋轉步長和縮放係數預先建立各個角度和縮放比例下的模板,是一種窮舉方法,因此如果寫的不好演算法是十分耗時的。

6樓:

二值化, 最小外包四邊形, 求乙個euclidean transform。估計都對齊了。

如果精度有更高的要求,在初對齊之後,在加限制條件(比如配準的點距離要小於一定閾值)做一些特徵匹配,來個二次配準。 加了這些限制條件之後,誤匹配大體都會被剔除。精度應該也會不錯了。

至於特徵點用什麼,魯棒估計是ransac 還是 weight median。其實工程中最好的方法就是試一遍。

7樓:小賴sqLai

教研室有師姐是做草圖檢索的,剛發了tip

導師前陣子過來和我們聊天的時候,就談到如果碰到零配件檢索的時候,可以考慮都簡化為草圖之後再進行處理,可能會有特殊的效果。不過現在草圖檢索方面,旋轉還是個難點,似乎還沒有看到特別好的解決方案

8樓:若水

看著挺熱鬧,我也來說下。直接利用,特徵點匹配,應該不太好用。因為你紋理資訊不太豐富,匹配的時候會出現錯誤的匹配點。

建議,先用邊緣進行下處理,去除光照影響,再利用影象金字塔加hu矩進行搜尋匹配。

9樓:

你給出的例子,sift+ransac足夠了。

你說的問題主要是沒有去除outlier造成的。如果追求速度,freak,orb什麼的問題應該也不大

10樓:左慶

不知道你的應用場景是什麼,但是總得來說,都是兩幅圖的對應點來計算乙個矩陣。

計算時間主要花在:

1.提取特徵點,

2.特徵點匹配(含去除outliers)。

如果是自然場景,那用SIFT之類的,但是根據我的經驗應該是比較慢的。

如果是在VR/AR環境中用的話,一般用的是marker來定位。

比如ARToolKitPlus

計算機視覺中,目前有哪些經典的目標跟蹤演算法?

砥礪前行的登山者 為了該問題,剛註冊的知乎,已入坑。之前研究經典的追蹤演算法,乃至有種 山中一日,世上已千年 的趕腳。該領域已經漸漸沉浸於相關濾波和深度學習裡,但以前的經典還需好好繼承,舉個小爪爪,以後和大家一起交流目標跟蹤的經驗 Ge皮燉蛋湯 MOSSE,Visual Object Trackin...

目前計算機視覺專家主要使用tensorflow caffe還是opencv

Xavier CHEN Opencv裡面封裝了CV裡面常用的大多數傳統演算法,算是計算機視覺的基礎。tf和caffe是做deep learning用的。如果想從事計算機視覺的工作,Opencv是基礎,必須會用的。tf由於是python的framework,適合做研發和除錯,但是工業應用一般都要把mo...

在計算機視覺任務中,運用Transformer和Non local有何本質區別?

我一直覺得深度學習這門學科被我們這幫不合格的研究者帶歪了連最基本的科學研究都不會了 Transformer和Non local有何本質區別?那我是不是可以Transformer和Non local和curve fitting有何區別?在座的能說出區別嗎?那所有都深度學習都是Curve Fitting...