深層神經網路與淺層神經網路相比,有哪些優點?為什麼要發展深度學習?

時間 2021-06-03 22:34:35

1樓:Ricman

一,區別

在架構上,除了除了輸入層和輸出層之外,神經網路乙個中間層。中間層在國內很多翻譯叫隱藏層。 它其它就是乙個編碼器。

淺層神經網路的中間層數量較少,雖然有研究表明淺層神經網路可以滿足當下很多的功能與需求,但不可否認的淺層神經網路比較大,引數數量很多。

目前業界已經有乙個非常明確的結論:即與淺層神經網路相比,深層神經網路可以用更少的引數更好組裝出很多的功能。

下面這圖應該有助於你理解上面所說的內容

為什麼要發展?

在傳統的機器學習技術中,大多數功能需要由領域專家來識別,以降低資料的複雜性使演算法起到真正的作用。

深度學習演算法的最大優勢在於,它們嘗試以增量方式從資料中學習高階功能。 這消除了領域專業知識和核心特徵提取的需要。

簡而言之,就是自動學習自動優化。

這意味著什麼?意味著機器可以幫助人類做很多很多的事情。解放人類,這是人類的暢想。

2樓:linglu

個人感覺最直接的原因是面對很多複雜的現實問題,比如影象識別等,淺層神經網路不能很好地學習,學習能力和泛化能力都比較差,也就是欠擬合,而深層神經網路可以通過增加網路深度,提高學習能力,讓一些複雜問題的解決成為可能。

3樓:choco

1.原理上講,乙個兩層的神經網路(只有一層隱藏層)可以擬合任意非線性函式,但是所需要的引數隨隱藏層中神經元個數指數增長,比深而窄的網路引數更多,這個有具體的證明。

2.深層網路存在特徵的復合,網路越深,提取出特徵的語義資訊越高階,15年的時候Lecun有篇文章視覺化了不同深度下的特徵,可以找來看一下

4樓:ZachZhang

深度學習可以用更多的簡單表達,也就是隱層神經元層數來完成對抽象問題的描述。同時在廣而淺(單層神經元數量多但層數少)和深而窄(單層神經元少但層數多)相比,後者訓練和優化所需的資源更少。我目前了解到的是這些。

卷積神經網路和BP神經網路的關係?

乙個維度的BP神經網路就相當於CNN中的全連線了,無非是多幾個全連線,CNN是二維,二維如果搞成全連線就導致運算量巨大,所以有了權重共享,大大減少了運算量,CNN卷積的思想肯定也源於BP神經網路就,在影象上做二維卷積的CNN發出炫目的光芒下,BP神經網路就已經快被人們遺忘了,但是不管CNN再怎麼發展...

卷積神經網路(CNN)和迴圈神經網路 RNN 有什麼區別?

不存在的1990 從字面區分 cnn 裡面的 c指 convolutional operation,是一種提取影象特徵方法。把這一operation加入到layer裡面構成了convolutional layer。rnn裡的r 指recurrent,中文是重複的意思。rnn構造的結構也是recurr...

如何看待人工神經網路ANN和脈衝神經網路SNN的發展?

十萬個為什麼 SNN起源於人類對生物神經網路的解剖,是一種機理模型 ANN是一種工程模型,架構上源於生物學基礎,但是又採用了數值優化的方法進行求解。當前的科技發展水平下,ANN更實用,可以解決很多實際問題,而SNN在功能性角度方面遠遠弱於ANN。從發展前景方面,ANN顯然不及SNN,因為生物神經網路...