為什麼神經網路能用於未出現過的影象的識別?

時間 2022-01-23 07:26:07

1樓:醉此江湖

我感覺應該是網路提取出來的特徵比較相似,就比如手寫數字識別,最終得到的特徵相似softmax就把它分到同一類去了

2樓:

未出現過的影象只是出現過的影象的區域性的組合。

3樓:有何不可

因為最優解所需要提取的特徵必然包括能夠在訓練集通用且區分度大的特徵。

訓練集夠大自然能夠在測試集使用這些通用而一針見血的特徵提取器來區分。

簡單說就是強迫神經網路發現最優區分特徵。

4樓:擺渡

深度學習(DL)是一類機器學習演算法,使用多個層逐步從原始資料中提取更高層的特徵。

——維基百科

它表達於影象中的意思如下

通過大量貓圖訓練

強迫網路丟棄無關特徵強化貓的「共性」 就擁有了疑問中比較好的「泛化能力」

tensorflow的名字就很好詮釋了它的機制,把影象當作乙個張量(這裡取其多維陣列含義) 讓它流過網路像乙個淘金過程將光照、隨機背景等與「貓」無關的東西層層濾掉抽取訓練資料中貓的「最大公約特徵」 對於它來說尖耳朵大眼睛毛茸茸這些特徵才是重要的姿態背景花色它不關心所以你也可以理解為它「沒見過的」 這個概念是錯的它見過太多這種特徵了是個老司機這尖耳朵大眼睛毛絨絨見過太多了不是什麼「新」影象

keras寫的卷積神經網路,為什麼每epoch訓練後,記憶體占用一直增長,直到溢位?

leon 我之前用pytorch時遇到過這種問題,原因是每個iteration的型別為tensor的loss都存了下來,loss裡面包含網路計算圖,所以每次iteration之後記憶體一直漲,後來只儲存loss的value就可以了。不知道keras是不是也有這種問題 ZW Huang 記憶體溢位的問...

神經網路中的退火是什麼概念?

神楽阪茉奈 神經網路的退火演算法就是最優化裡面的模擬退火演算法。神經網路的BP演算法用的是梯度下降法在權值空間裡面尋找乙個最優解,但是梯度下降法會有區域性最優解的情況。為了解決這個問題引入動量項或者模擬退火 其實相當多的最優化的技術已經用在了不同的神經網路訓練演算法裡面。擬牛頓法 共軛梯度法 廣義逆...

為什麼要用GPU來訓練神經網路而不是CPU?

小M同學 GPU在浮點數的運算上要快於CPU。神經網路訓練往往需要處理大量的資料,GPU高效能會節省訓練的時間。而且選擇 GPU 還需要考慮視訊記憶體的大小。推薦選擇視訊記憶體大於 8GB 的 GPU,這一點很重要,因為在執行大型神經網路時,系統預設將網路節點全部載入視訊記憶體,如果視訊記憶體不足,...