如何評價Deep Image Prior這篇文章?

時間 2021-05-06 15:19:40

1樓:Yongcheng Jing

之前這篇文章的作者Ulyanov發表了兩篇Fast Style Transfer的文章。其實這篇文章應該就是作者在做style transfer的時候想到的,因為deep image prior中的方法其實就是feed-forward network based Fast Style Transfer訓練模型時候訓練資料只有一張圖,利用這一張圖訓練好多個epoch的情況。這種方式之前我做style transfer時候一般是用來調模型架構的,因為可以很快得到結果大概知道模型架構好不好,Ulyanov本人也在[1]中證明instance normalization作用時候用了這種方法(Figure 3(a)(b))。

Deep Image Prior這篇文章將這種方式昇華了一下,回到Style Transfer的根源Image Reconstruction來從根本上考慮這個問題。實在厲害。

[1] Ulyanov, D., Vedaldi, A. and Lempitsky, V.

, 2017, January. Improved texture networks: Maximizing quality and diversity in feed-forward stylization and texture synthesis.

In Proc. CVPR.

2樓:jade zhao

有大神能給分析一下這個理論是不是和GAN的理論是衝突的。我的理解是神經網路能夠學習到低頻特徵,增加一些高頻噪音不會有影響,但在gan中增加一些高頻噪音會導致識別出錯。為什麼?

3樓:mileistone

1、CNN結構是對自然影象非常好的乙個assumption(也可以叫prior)。每個模型都有對資料集的assumption,比如你用lr,那麼就隱含著資料集線性可分,如果資料集是由乙個圓分為兩個類別,那你用lr只能得到乙個很差的結果。而CNN的乙個假設是資料具有區域性相關性,這個和自然影象的資料分布非常匹配;

2、待修復影象未損壞部分的面積遠大於損壞部分。待修復影象其實就是乙個監督資訊,未損壞部分提供正確監督資訊,損壞部分提供錯誤監督資訊。如果待修復影象未損壞部分的面積遠大於損壞部分,在訓練的過程中,待修復影象未損壞部分能主導訓練過程,讓模型學到待修復影象的分布,也就是紋理、圖案之類。

當模型學到了待修復影象的分布後,由於CNN還有空間平穩性這一假設,又可以通過損壞部分周圍畫素點去反推出損壞部分本來的樣子。

用分類任務來做乙個模擬,待修復影象未損壞部分相當於分類任務資料集中有正確標籤的影象,損壞部分相當於錯誤標籤的影象。分類任務訓練資料集的標籤不可能全部都對,正確的標籤提供模型引數朝著目標函式降低的方向走的力,錯誤的標籤反之,只要正確標籤提供的力大於錯誤標籤,那模型在這個資料集上就是可訓練的,否則,是不可訓練的。

請問如何評價 如何評價

YIMING REN 要想清楚,如何評價如何評價,到底是一種怎麼樣的存在。羅曼 羅蘭說過一句富有哲理的話,只有把抱怨環境的心情,化為上進的力量,才是成功的保證。這句話語雖然很短,但令我浮想聯翩。吉姆 羅恩說過一句富有哲理的話,要麼你主宰生活,要麼你被生活主宰。這不禁令我深思。帶著這些問題,我們來審視...

如何評價如何評價19 20賽季切爾西的總體表現?

軒轅吱吱 總的來說,19 20賽季切爾西的表現是令人滿意的。如果打分的話,70分吧。賽季初主教練出走,核心出走,轉會禁令,大面積球員傷缺就決定了我車的開局就是困難模式。一整個賽季裡,我們用著履歷裡只有一年英冠球隊職教經歷的菜鳥主教練蘭帕德,提拔了一大批之青年球員,包括芒特 亞伯拉罕 里斯詹姆斯 祖瑪...

如何評價 導師評價網 mysupervisor org ?

SHERO 看了不同學校的幾個老師的評價,總體感覺評價乙個老師的樣本量太小,很難具有代表性而且整體偏低,還有些詞句顯得非常不尊重。重要的是我們需要的是客觀評價。如何客觀?很難!因為碩士生和博士生已經不太像本科生那樣能夠批量產出了,不同研究生之間異質性太大,容易導致學生的追求 老師的目標以及畢業標準三...