神經網路中隱層有確切的含義嗎?

時間 2021-10-19 05:15:02

1樓:令狐arfmaof

產品渣剛好看nlp的書到這塊,有點懵,自己強行解釋130+120=250=360-110.兩者表示的意義是一樣的,但是表達的方式不太一樣。數學解釋是可以把這些數字分別換成兩組引數。

。。。。看到這裡,原來真的不是演算法忽悠我,而是演算法真的是玄學啊。

感覺羅博士說的最好哈。

2樓:「已登出」

大部分來講,隱藏層的意義,是把前一層的向量變成新的向量。就是座標變換,也就是把空間扭曲一下變下維度啥的,讓他們更加線性可分。

要說意義,啥叫意義。。我覺得有意義,乙個隱藏的細胞說乙個特徵。這樣算意義吧?

3樓:

所謂的含義,是人類的一種簡化問題的敘述方式。

y=3x+2,

3是什麼含義,2是什麼含義?

y=exp(2-log(5*x-11.8)+sin(tan(x-1/(2.37+Li(x)))))*Si(max(x,2x+1))

5是什麼含義,2.37是什麼含義?

說到底,神經網路太複雜,複雜到人們沒有時間去詳細剖析每乙個係數起什麼作用。

卷積神經網路中,那個卷積輸出層的通道數 深度 的計算?

小心心 Fig.1影象卷積過程gif 關於這個問題,可能剛接觸卷積神經網路對這個都會有很多誤解。今天就來大體一說,根據從 笑可結緣https 那裡得到的圖 侵刪 一般我們的影象在輸入的時候是有通道的,例如黑白影象是單通道的 input channel 1 rgb是3通道的 如Fig.1所示,inpu...

神經網路中Belief Net和標準的神經網路有什麼區別?

金天 這個已經深埋地下的問題今天在下挖出來回答一番,拂去歲月的塵埃這個問題還是值得一答,也值得大家一讚.我的思考 1.DBN本質是RBM一層層的堆疊,那麼問題在於RBM與標準傳統簡單的神經網路有毛線區別呢?我們知道RBM可見層與隱藏層之間是全連線的,而hidden和hidden之間是沒有連線的,這個...

為什麼神經網路中從輸入層到隱含層的權值必須互不相等?

曹佳鑫 先來看張圖 乙個簡單的神經網路 如果權值初始化是相等的 這句話的意思是hidden layer的每一列上的神經元引數都一致 那麼在BackPropagation的時候,每個神經元獲得的update都是一致的,那麼更新後的神經元的權重還是一致的,就導致了網路進入了對稱狀態,所謂對稱就是相對於某...