如果說神經網路是乙個函式擬合器的話,那它的輸入是什麼?

時間 2021-06-05 23:41:02

1樓:王泓硯

你的理解沒有錯,神經網路模型就是擬合各種輸入特徵求得輸出類別的概率分布,輸入特徵包括顏色、紋理、輪廓等資訊,甚至還有文字描述資訊。與人理解的具有物理意義的認知層面的特徵不同,神經網路的特徵是多層資訊分布的模式,可以視為關鍵資訊相互依存的網路結構,是感知層面的資訊劃分。

2樓:Jack Stark

神經網路學到的(或者說擬合到的)是一種概率分布。對於通常使用的判別式模型,神經網路學習的是輸入x和輸出y之間的條件概率分布,即事件y在事件x已發生條件下的發生概率。因此,網路的輸入是發生的條件。

人類是根據特徵來認識事物的,比如我們看到圓圓的、掛在天上的、明亮的東西會知道它是太陽,這裡「圓圓的、掛在天上的、明亮的」就是人類理解的特徵。對於網路來說,它也是學習適合問題的特徵表達,從而進行判斷的。對影象資料來說,網路擬合的資訊我們可以理解為從低層的畫素,到稍高的紋理,再到複雜的形狀等特徵。

逐層特徵提取是神經網路最重要的能力,但是我們沒有必要理解它每一層到底在學什麼特徵,因為本來機器理解的特徵和人類理解的特徵就是不一樣的。

如果乙個神經網路的總loss loss1 loss2,那麼這個網路是如何反向傳遞更新loss1的呢

Tridu 現在大資料這麼離譜的嗎?希望是巧合。剛出實驗室,剛批改的作業就是BP反向求導的習題,居然一開啟知乎就看到了這個問題。建議題主看看相關網課ppt資料 這裡lecture18有個手寫求導pdf 貓頭嚶 我寫了一篇BP原理,你可以系統性的了解一下。 靈劍 感覺是沒有理解梯度下降的意義,我理解你...

能否設計乙個神經網路實現類似FFT的功能?

cuimolei 其實FFT是DFT的快速實現,而DFT實際上就是卷積。DFT本質上就是乙個線性變換,所以用不帶非線性變換的卷積實現FFT是完全沒問題。而DFT有各項同性的特性,意味著其可以拆解為nx1,1xn卷積兩步實現,而FFT是針對DFT冗餘計算進行的優化。也就是從計算量講 多層卷積 單層nx...

我想做乙個基於神經網路的數字識別程式,請問我應該看哪些書?

簡單一點的方法 1.看懂神經網路演算法 Andrew Ng 講的BPNN 2.收集,標記你的資料.3.matlab有個神經網路工具箱,可以直接用來訓練. king zin 我覺得Michael Nelson以數字識別為例子講人工神經網路講的不錯。當然現在數字識別基本已經是神經網路的HelloWorl...