深度神經網路(DNN)是否模擬了人類大腦皮層結構?

時間 2021-05-06 18:36:22

1樓:david

首先,根據DNN的實際表現,應該和人腦的機制有部分重合,但是我覺得還是很初級的,DNN只是乙個概況的稱謂,還包括CNN,RNN....等不同的型別,可以理解為對應了人腦中不同功能的神經元結構。

2樓:

先放結論:沒有。

學了一年人工智慧,我懷疑現在人工智慧的發展方向上存在著根本上的錯誤,人工神經網路的本質是n個超級複雜的函式堆砌,這個函式複雜到訓練乙個神經網路用我的小破MacBook pro要用一下午才能完成。

直覺告訴我這種unexplainable Statistics Model是無法孕育出真正的智慧型的。想要創造出強Ai必須要從大腦機理上進行模擬才可以。

所以身為乙個以創造出強Ai為己任的超級富二代,我決定改行學生物了

3樓:kenosis

基本同意:

幾乎沒有,神經網路這個詞更像一種比喻。(名字起的上來就有誤導性)乙個數學家搞出來的玩具,一群cs、EE方向的人玩的不亦樂乎……怎麼看這些人都和生物沒有半毛線關係。

外加一句,人類痴迷於自身智慧型,是一種自戀。Nature Intelligence是一切的本源,人類一忘本,就會遇到侷限性

4樓:書寫心

Spike Neural Network 更加像大腦皮層的運作,訓練突觸的方式STDP也是基於生物學的Hebbie rule來的。

5樓:

神經網路應該是受大腦機制啟發,脫胎大腦機制,個人理解,它與神經元相似的地方有兩個,乙個是單個神經元只能處理簡單任務,而多個神經元聯合能處理複雜任務,另乙個是具有分層的結構,不同層處理任務中的不同部分,或者說對應不同特徵。真正研究大腦在演算法層面上的工作被稱作「計算神經學」。

詳細可看這本書的1.2章

exacity/deeplearningbook-chinese

6樓:

沒啥關係。現在也沒有人類大腦是通過bp來優化的生物證據。而dnn很多發展,比如bn還有residual connection都是圍繞gradient來做文章。

7樓:Kevin

只能說是啟發和影響,談不上模擬。

早期的飛機受鳥類飛行啟發,但說現代的飛機模擬鳥類飛行,也是不對的。

啟發/靈感/影響主要有幾個方面

1. 早期神經網路受生物大腦的神經元結構啟發,逆向大腦來構建智慧型機器,但是一般都沒有設計成生物功能的

2. 可以通過單一的深度學習演算法解決不同的任務,比如把動物的視覺訊號傳送到聽覺處理區域,動物可以學會用大腦的聽覺處理區域去看(Von Melchner et al., 2000)

3. 受到動物視覺系統啟發, 形成了現在的卷積神經網路的基礎

4. 目前大多數神經網路使用的稱為整流線性單元(rectified linear unit)

5. 連線主義的觀點是,當網路將大量簡單的計算單元連在一起可以實現智慧型,這也同樣適用於生物神經系統中的神經元深度網路或者神經網路無法模擬生物大腦

1. 沒有足夠關於大腦的知識作為指導

2. 現在計算和儲存能力不足以支撐對大腦的模擬,比如同時監測(至少是)數千相連的神經元的活動

3. 更接近實際神經網路的系統並不能提高機器學習的效能

5. 實際的神經網路,比如前饋神經網路,更恰當的說法是為了實現泛化而設計的函式近似機現代的神經網路更多地受數學和工程學科的指引,並且當前的神經網路或者深度學習的目標是構建計算機系統解決智慧型任務問題,而不是給大腦建模,它只是偶爾地神經科學提取靈感。

另外有一門學科《計算神經科學》,則是通過模擬大腦來了解大腦如何真實工作的。

做了一回搬運工,以上,參考 http://www.

deeplearningbook.org/

8樓:gao sky

你腦子需要自編碼的逐層訓練嗎?你腦子會出現梯度消失嗎?你腦子看東西是乙個個濾波器篩選的嗎?

你腦子使用一堆數字連起來的嗎?你還會自己學習的時候偶爾關閉一下腦細胞來提高學習效果嗎?

分割線,回答一下 @UFO 的問題,稀疏化和隨機關閉有什麼區別。。。

區別大了。。。

首先,None和0有木有區別,肯定有,好吧。。。這就是稀疏化和隨即關閉的區別。

想想乙個2,2,1的神經網路,當網路輸入為【1,1】的時候,不妨將w1設為【1,1;1,-1】,這個時候,正常情況下你的中間層h應該是【1,0】首先,這是乙個稀疏化的表達,當我們再次引入dropout的時候,很有可能原本是1的那個神經元也變成了0.好吧,這個時候你的網路gg了,因為0出現了梯度消失。好吧。。。

也許你會說,這是個少數情況,當我們的神經元數很多的時候,幾乎不可能。那你就要回頭想一想鏈式法則的權值調整過程了。首先,dropout是網路中拿掉了這些神經元,雖然表面上看相當於是置零,但是實際上相當於不存在,也就是說,當我們再去調整權值的時候,是不會修改這些權值的。

這也就是dropout本身也可以看做乙個boost的原因,他相當於整合了多個不同神經元組成的神經網路。而對於稀疏表達來說,即便當前的值是0,代表了你對別人不產生直接影響,可是這並不代表別人對你不產生影響啊。所以雖然,0無法傳遞,但是這個神經元依然還在,就像0和None的區別。

最後,也是最最重要的,你的稀疏化來自什麼?懲罰項。你真的可以通過乙個簡單的懲罰項,就可以求解這麼複雜的優化問題,獲得乙個稀疏解嗎?

不信你去列印乙個中間變數看看,如果你的輸入不是稀疏的,那麼你的中間層也不可能很準確的是0,通常情況下只能是乙個很接近0的數字。當然,這裡並不排除你採用了ReLU這種可以強制置零的啟用函式。那麼問題就來了,很小的數,是不是數,會不會對權值產生影響,答案是肯定的。

所以,稀疏化和隨機關閉的原則差別還是蠻大的。

不知道這樣解釋可以不,大佬們輕噴

9樓:

我猜來回答此問題的更多的為cs的專業人士。提問暗含的意思似乎是已經把單個神經元當作學習的最小功能單位,其實遠非如此。乙個神經細胞已經是無數分子和電訊號整合後的反應大單位。

甚至更精細一些,神經細胞上的乙個突觸都可以根據刺激強弱極為迅速地進行自我活性調控。而一小小突觸,其下涉及的蛋白種類和瞬間的酶活應激變化何止千種。

再給一百年,深度學習進化到再高的程度,恐怕也比不上單個神經元的plasticity能力。

枉論是皮層了。

概念上有相似之處,但這相似之處很牽強。因為人們並不了解皮層,所以其實本來也談不上對皮層的概念,至多算是「模仿了腦神經領域中某個有爭議的關於學習產生的簡化理論模型」。

10樓:Genome

什麼是模擬?我完成了一件事,你用相同的方式完成了,是模擬嗎?那我用不同的方式完成了同一件事了?

DNN的潛力我們只看到了冰山一角,同樣大腦怎麼工作的我們也只看到了冰山一角,基於這冰山一角去判斷問題肯定有侷限性。如果兩種不同的方法都能完成同乙個目標,那麼他們內部必然有本質相同的東西(甚至是本質相同的),如鳥飛和飛機飛背後都是空氣動力學的本質。同樣DNN可以和大腦模擬,只是現在的DNN和大腦的很多問題我們還說不清楚而已,而且毋庸置疑DNN一定會變得更強大。

11樓:陳默

最開始時候ANN是蹭了神經學的熱點。為什麼,生物學神經學什麼的容易發nature science啊,電腦程式搭上大腦的噱頭看起來多麼的炫酷。這就是為啥當初ANN那麼不work還火了這麼多年,容易灌水啊。

後來DNN居然給調work了,神經學又蹦出來蹭熱點了:你看都是我們神經學的啟發你們才搞出這麼個東西。

說到底,其實倆東西的p關係沒有。強說有關係的話,那麼跟飛機和飛雞的關係也差不多吧。

12樓:小學

幾乎沒有,神經網路這個詞更像一種比喻。

乙個數學家搞出來的玩具,一群cs、EE方向的人玩的不亦樂乎……怎麼看這些人都和生物沒有半毛線關係。

13樓:SIY.Z

只能說一部分是。

1. 一開始提出時,顯然是借鑑人腦的,權值更新規則是著名的生物學上的Hebb's rule(經常一起啟用的神經元連線會加強)。但是,Hebb's rule 不能訓練多層網路,實際上訓練深度網路的是BP演算法,而BP演算法在生物學上很牽強(雖然一直有人argue說存在,但是並沒有真正讓人信服的結論)

2. LeCun在提CNN的時候提到了借鑑人腦。人腦視覺處理確實是分層的,並且非常重要的是CNN產生了和人腦非常一致的啟用模式。

但是,人腦處理公認一般也就4到5層(初級視皮層V1-V5),但是你看次現在效果奇好的Residual,可以上千層。。。

3. 非常重要的一點,人腦神經元傳遞訊號是脈衝形式的,有「時序和頻率」的概念,而不是像神經網路一樣不更新就是定值。脈衝形式也是能耗低和魯棒性高的重要保證。

4. 強化學習被認為和人腦的多巴胺系統有非常重要的聯絡。多巴胺系統似乎能夠傳遞強化學習中的td訊號。實驗有初步認證,但是仍待觀察。但是提問中問的是大腦皮層Orz.

5. 神經元相比神經網路中的人工神經元複雜的多,神經元有很多「內態」,多種效用不同的神經遞質和啟用模式。這點上看兩者又是差異很大的。

6. 一些邊緣的類似,比如說注意力模型等。這些可能有關係(比如人腦確實是使用神經元以和DNN類似的模式來控制注意力的),但目前說不清。

暫時想到這些區別和聯絡,如果找到更多的之後會補上

不過我還是想補一些額外的話,

題者雖然只是問DNN是否模擬了人腦結構,但是我隱約還是感到有些傾向性,雖然不是所有人都這麼想,但是肯定是有人有這種看法的。

DNN和人腦都有固有的缺陷。如果將來有證據說明,人腦一點都不「深」,並不意味著DNN有問題。如果人腦真的有幾千層的結構,那麼受生物學的限制(神經元工作頻率很低的),人的反應會極度緩慢,根本不適合生存,所以說即使深能提高智商,自然進化也避免如此;而DNN沒有這種問題。

同樣的,使用脈衝訊號也是不得已的方法,否則整體功耗和穩定性會非常糟(想象一下數億的神經元同時都在維持連線(這還是非常稀疏的情況下),就像神經網路一樣,如果不受干擾就要保持相對強的連線強度,這功耗真的把生物搞死)。早期的一些小生物(輪蟲還是什麼的記不清了),確實是不使用脈衝的策略,但是大了之後很難說使用脈衝不是一種無奈之舉。我個人不相信脈衝可以傳遞精度很高的訊號,這樣以來很多類似BP的更新策略難以實際執行,即使它能夠提高大腦的處理能力,如果真的如此反而DNN獲得了優勢。

但是脈衝又帶來了時序的概念,這又是一件焉知禍福的東西,控制好的時序可以高效構成某種模式,但是控制不好又顯然造成了非同步更新的麻煩。

所以說設計DNN也不能迷信人腦,實際中人腦可以作為乙個很好的啟發式和驗證方式,但是收到各種生物學限制的系統幾乎必然有大量的缺陷,所以DNN做的如何最終還是看實際效果,而不是和人腦模擬。

multi task深度神經網路如何實現,優化?

知識達人 多工學習有很多形式,如聯合學習 Joint Learning 自主學習 Learning to Learn 借助輔助任務學習 Learning with Auxiliary Tasks 等,這些只是其中一些別名。概括來講,一旦發現正在優化多於乙個的目標函式,你就可以通過多工學習來有效求解 ...

一深度神經網路如果用zero initialized而不是random會怎樣?

類似於 大腦一片空白 吧。畢竟權重為零的話,第一次向前傳播的時候是沒有問題的,儘管結果是零。但是開始反向傳播的時候,loss function計算的誤差會無法更新的,僵住了。 sgd 到 mini batch gd 是為了提高計算速度,一定的資料量,單個array計算沒有matrix計算快。和引數初...

機器學習,深度神經網路等方法是否是正確的方向?

陳小小 神經網路只是一種模型,我們要關注的是任務和問題而不是某一種模型,神經網路是解決某些任務的手段罷了。其實除了傳統的幾大任務包括視覺 語音 NLP 博弈論和機械人,還有很多問題值得我們關注。比如intuitive physics,intuitive psychology,compositiona...