1樓:胡免
根據最大熵模型得來。
具體推導可以看《統計學習方法》83-85頁。
參考:https://
blog.csdn.net/zynash2/article/details/79261039
2樓:張揚
舉個例子:
有個唱歌比賽,評委們有些是歌手的親戚,有些是歌手的仇人。
遇到親人,狂打高分;遇到仇人,狂打低分。
咋辦?去掉最高分和最低分,這樣更公正一些。
S函式,就是去掉極端分數用的。
3樓:熊醬
sigmoid is the cumulative distribution function (c.d.f) of logistic distribution
4樓:豬了個去
sigmoid是有意義的,由單層RBM網路的能量定義其中的w即隱含層的權值
同時的聯合概率為
,聯合概率分布
最後就是個sigmoid(wx+b)
QED參考文獻
[1].Restricted Boltzmann Machines (RBM)
[2]. 知乎使用者:神經網路中的能量函式是如何定義的?
5樓:Cheese
首先要明白神經網激勵函式或者說啟用函式的作用,啟用函式是將神經元經過計算後的輸出對映到乙個範圍內(通常是(0,1)),以方便計算或者得出概率。理想狀態下,將值對映為0和1,因為「1」對應神經元興奮,「0」對應神經元抑制。但是這樣無法計算梯度或者求導,所以需要用連續函式。
剛好sigmoid滿足以上的條件。
對了,sigmoid的中文意思就是S形,因其函式形狀似S形而得名。而simoid函式還有個名字是logistic分布函式,所以說為什麼logistic回歸要用到sigmoid函式,因為他們本來就是指同乙個意思,這點我在不了解之前也差點搞混了,順便寫出來提醒一下可能也搞混的朋友
6樓:Scilence
除了以上作者們的回答,我覺得用sigmoid函式來表示輸出值得概率是因為他真的很像高斯累計分布函式,如下圖。而符合高斯分布的隨機變數的概率就是高斯累計分布的值,所以sigmoid也可以近似來表示概率,用以指導輸出類標的可能性大小。
7樓:
哪有那麼多玄乎的東西,不過是乙個兩頭平中間陡,值域是0到1,關於0,1/2對稱的函式罷了。就乙個經驗的東西,你選arctanx也一樣用
8樓:張金超
我覺得可以從無窮級數的角度去理解,指數函式的無窮級數是各種分量的高階組合。sigmoid中有指數項,且導數形式好,值域也好。
神經網路如何猜出函式?
雨落晨曦 Hum.是這樣的。要猜出函式乙個比較常用的方式是非引數估計,比如核密度演算法等等 猜 出乙個足夠接近原函式的函式。至於你說的神經網路,由於神經網路 一致收斂性 也就是可以在二階擬合任意二維函式的性質,可以擬合函式數值,然後用SVD等等降維方法降維到一定的特徵閾值,此時的神經網路與原函式性質...
神經網路中的能量函式是如何定義的?
雖說這模型有從物理跟生物的啟發,但往這方向說到底,也只是提到跟某公式很像罷了,還是不知道如此定義的原因及作用 知識點 資訊理論,線性內積空間 機率及能量 同時是訊息量 函式定義成那樣的原因是,如此才能使得所有狀態的訊息量都嵌進乙個線性內積空間裡,因為線性實在是太好用,即便最困難的非線性狀態變換,在新...
神經網路中Belief Net和標準的神經網路有什麼區別?
金天 這個已經深埋地下的問題今天在下挖出來回答一番,拂去歲月的塵埃這個問題還是值得一答,也值得大家一讚.我的思考 1.DBN本質是RBM一層層的堆疊,那麼問題在於RBM與標準傳統簡單的神經網路有毛線區別呢?我們知道RBM可見層與隱藏層之間是全連線的,而hidden和hidden之間是沒有連線的,這個...