目前火熱的Deep Learning會滅絕傳統的SIFT SURF的特徵提取的演算法嗎?

時間 2021-05-11 02:14:36

1樓:點點點

PointSIFT,盧策吾團隊,用於點雲語義分割,利用SIFT描述符的思想做的。

PointSIFT: A SIFT-like Network Module for 3D Point Cloud Semantic Segmentation

PS:影象拼接領域對特徵的要求沒那麼高吧,只要特徵點足夠,且大致均勻分布就行,主要還是在配準和融合。

2樓:shaohe

從科研的角度,傳統方法,基本是死了。

從實用的角度,還未必。因為,深度學習雖然效果好,但複雜,計算量大。

因為深度學習,某寶上都已有了「gpu租用」的商家,1080ti,五元一小時。

大家去體驗一下,就會明白,深度學習,確實強,但算力需求是硬門檻。

3樓:Shannon Bobo

傳統方法提取的特徵侷限性大,

不能處理組內多樣性

但針對編碼的研究還在繼續

傳統影象特徵框架和深度學習的結合也有很多(deep fisher,L2net)

思想不會滅絕

你中有我我中還有你~

4樓:高仲源

關於樓主的問題,我想說乙個題外話,怎麼構建他的金字塔結構······我個人主頁也有問的這乙個問題,希望樓主能解答疑惑····THANK YOU!

5樓:

No free lunch theorem for machine learning:

The 「No Free Lunch」 theorem states that there is no one model that works best for every problem. The assumptions of a great model for one problem may not hold for another problem, so it is common in machine learning to try multiple models and find one that works best for a particular problem. This is especially true in supervised learning;

有的時候feature engineering還是需要的,儘管DNN在大部分情況下都很好。

6樓:木木哥

總體趨勢是通過Deep Neural Network學習得到的feature會取代SIFT/SURF等手動設計的特徵。雖然目前學習得到的特徵在特徵檢索、分類等任務上都有提高,但對於核心的匹配問題在實際資料上的提高並不十分明顯,甚至在不同的資料上得到的評測結果頁不甚一致。

去年10月ECCV 2016 舉辦了乙個local feature設計的Workshop,參見:

Local Features: State of the art, open problems and performance evaluation

正如與會的幾位feature學習和設計的大牛所指出的,在核心的匹配問題上,CNN學習得到的特徵目前並沒有取得突破性的進展。在Oxford 大學的VGG組提供的Hpatch資料集上,我們可以看到rootsiftpca取得了最好的匹配效果。下圖節選自會議提供的評測報告:

這也給特徵設計留下了一些思考:

現在流行的feature學習的siamese或者triplet等結構是否缺失了某一部分?

雖然CNN可以挖掘patch裡面包含的資訊並建立對於複雜幾何和光照變化的不變性,?

7樓:Kache

Domain-Size Pooling DSP-SIFT 14年的工作,應該可以歸類為handcrafted feature。所以應該還沒有被滅絕掉

8樓:張翔

就SIFT、SURF等視覺影象特徵提取方法本身來說,它們應該會在實用中逐漸被深度網路所替代。但是,這些特徵提取方法的研究過程和思路是非常有用的,其它領域的特徵提取的研究方法和思路也是一樣。因為這些方法具有較強的可解釋性,它們可以對我們設計機器學習方法解決此類問題提供啟發和模擬。

有部分人認為(也有部分人反對)現有的卷積神經網路與這些特徵提取方法有一定類似性,因為每個濾波權重實際上是乙個線性的識別模式,與這些特徵提取過程的邊界與梯度檢測類似。同時,池化(Pooling)的作用是統籌乙個區域的資訊,這與這些特徵提取後進行的特徵整合(如直方圖等)類似。通過實驗我們也發現卷積網路開始幾層實際上確實是在做邊緣和梯度檢測。

不過事實上卷積網路發明的時候,還沒有這些特徵提取方法。

不過,深度學習的資料需求量大對於視覺來說是個偽命題。許多研究成果已經表明深度學習訓練得到的模型具有很強的遷移能力,因此在大資料集上訓練完成的模型只要拿過來在小資料集上用就可以,不需要完全重新訓練。這種方式在小資料集上的結果往往也比傳統方法好。

為什麼目前的深度學習 Deep Learning 只是比較成功運用到影象 語音上?

尋常巷陌 在振動訊號上也是比較成功的。深度殘差收縮網路就能夠很好地從含噪振動資料中提取有用特徵,用於機械故障診斷。其實,在很大程度上,問題在於大部分企業不公開裝置監測資料。Minghang Zhao,Shisheng Zhong,Xuyun Fu,Baoping Tang,and Michael P...

目前狀態火熱的IG有什麼弱點嗎?

現在的三板斧ig和Ti6的三板斧ehome並沒有什麼區別,唯一的區別就是,現在的ig站在版本浪頭,而那個ehome同樣是上半年被看好,後來被版本拋棄。來,我就說ig五個位置會的絕活英雄 1 劍聖小狗VS,其他都只能算半個,B神在DAC只用了五個英雄吧。2 TK火女藍貓黑鳥,火貓影魔半個 3 人馬沙王...

如何評價吳恩達開設的 Deep Learning Specialization 課程?

CKLSniper 1.繼承了ML課程的風格,對新手非常的友好,即使不是科班出身學習也不會有大問題。2.講了很多任務程上面的細節,比如第三門課的東西在教科書裡面似乎不會怎麼提到,但對自己訓練大型神經網路會很有幫助。3.基本沒有很數學的東西,想繼續提高的話可以自學Goodfellow那本書。 Andr...