如何評價2023年計算機視覺頂會CVPR投稿量破萬的現象?

時間 2021-05-06 23:05:57

1樓:弗拉基公尺爾

哈哈哈,

LSTM投稿法也同樣試用呀

遺忘門,遺忘之前的水文

重置門更新門,重置更新上屆小修文章.

本屆文章在作為這一屆的輸入.

2樓:JunMa

以分割為例,今年的ICCV在月初剛剛落下帷幕,回看一下10年前的ICCV-2009是怎麼做分割的

這篇文章是Pock, Cremers等人發在ICCV-2009的一篇分割文章,是用primal-dual演算法求解圖鬆弛Mumford-Shah模型的工作,目前有300+引用。

An Algorithm for Minimizing the Mumford-Shah Functional

貼幾張文章裡的內容

方法介紹部分有很多公式,把這些公式看懂的門檻相對比較高,也不可能有幾個月速成的班。

以FCN、U-Net為代表的基於深度學習的分割方法的出現,大大降低了門檻,分割的模型可以非常簡潔,借助tensorflow, pytorch等庫,可能乙個月左右就能上手,而且結果也比傳統的分割方法好很多(有訓練資料的情況下)。

Thomas Pock

Daniel Cremers

3樓:Lyken

@Alan Huang 黃博士的斐波那契投稿略有點不准,因為轉投的意願會隨著投稿次數而快速衰減,我覺得真正的公式應該是 Momentum 投稿

黃博士的公式

這次的投稿 = 這次的新稿子 + 截至到上次累計的拒稿修正後這次的動量 = m * 上次的動量 + 這次的拒稿 ( m < 1 )

這次的投稿 = 這次的新稿 + 上次的動量

4樓:

咱沒投,水平不行。

俺倒是覺著如果覺得他們部分在水,大家可以把自己做的好的工作也投過去,以實際行動稀釋和打擊他們。抱怨解決不了問題。

5樓:

深度學習,深度學習,深度學習,我只能默默的抱怨一句,怎麼大都是深度學習!好像不是深度學習就很難中了,這是一種「病態」。不是深度學習的方法,我們的研究就沒有用處了這是我這位菜雞的抱怨

6樓:Alex Shi

前有Alan huang的提出的斐波那契投稿公式,初步表明了拒稿與今年投稿之間的關係。

後有superbrother提出累計斐波那契投稿公式,將相似會議的拒稿因素考慮了進來。

但他們都沒有考慮不同年份的拒稿對今年投稿具有不同的影響。

據此,based on previous studies,我們提出t年前的拒稿對今年的投稿程指數遞減規律,相似會議按照不同引數矩陣進行weighted加和。

具體來說

7樓:strangebits

像環化材生一樣,改成兩周一刊,或者一周一刊不就行了。再辦個CVRP Asia子刊,每年來一次CVRP Asia年會,必定野無遺賢。

2023年,計算機視覺領域會有哪些新的研究方向值得提前探索?

Julian 掃了一圈看到有人答Federated Learning FL 那我接著這個話題往下說說Split Learning SL 1.Split Learning的主要動機的什麼?2.什麼是Split Learning?框架圖和演算法圖 3.SL與FL以及其他相似演算法的區別是什麼?4.效能怎...

2020 年,投身計算機視覺是否明智?

Wusdream 如果是因為演算法崗較高的薪水,那不太建議來,因為演算法崗已經很捲了,付出回報不成正比,同樣的努力開發早就去網際網路大廠了。拿演算法預研來說,如果你沒有在演算法精度上做出提公升,每個季度考核一定會非常焦慮,CV預研在工作中的大部分任務都是對訓練資料的處理。比如,真實資料容易過擬合,就...

2023年,計算機視覺領域,你推薦哪些綜述性的文章?

Lizard 瀉藥關於RGBD reconstruction有一篇綜述,介紹了截止至2017年相關工作 2018年的只有一小部分被涵蓋進去 State of the Art on 3D Reconstruction with RGB D Cameras Dave Zheng Point Cloud ...