在多元變數歸一化時,對於本來就在0和1之間的變數,需要歸一化的操作嗎?

時間 2021-06-02 09:08:43

1樓:馬屁哥哥

請區分歸一化(normalzatiin) 和標準化(standardization)。

俠義,或者說標準的歸一化,本來就是把變數約束到0,1之間或者是-1,1之間,所以你的sin函式的輸出本來就是符合這個條件的。

深度學習一般建議是做標準化的,但有時候為了方便,也只歸一化(比如影象預處理直接除以255)。

另外,BN雖然叫batch normalization,但實際做的是standardization。

2樓:人工智慧學術前沿

歸一化的作用是,消除減少,不同變數之間的量綱差距。

其實具體內容,應該看實驗效果。

做一組對比,做不做歸一化的工作,也算是乙個工作量了。

3樓:「已登出」

有必要。在神經網路裡你描述這種情況就經常存在,即梯度的值已經被約束在0-1值域之中,例如使用sigmoid啟用函式,但是,梯度可以集中在靠近0的地方,就會出現梯度消失問題,使得每一次迭代過小,這樣就會導致訓練的困難。針對這個問題,一種方法當然是使用其他啟用函式如Relu,另一種方法就是你說的歸一化,在這裡叫做batch normalization。

在回歸裡如果你的sin函式的值集中在0或1附近,也應該做歸一化。實際上歸一化做的事情是減少誤差上界。

為什麼在ndc歸一化座標已經包含了視錐體剔除功能的情況下 還需要視錐體裁剪?

Binarizer 這兩個完全不一樣的哦。視錐裁剪 Frustum Culling 一般是CPU做,只檢測包圍盒或者球 DX11後用GPU寫CS也可以,保證當幀不回讀就行 後面的是GPU做,你不可能在CPU階段就把所有頂點都去乘MVP的,而如果把所有東西一股腦都扔給GPU,你的GPU扛得住嗎?隨著解...

作為乙個保守派,在保護傳統和接受多元的個人觀點和價值觀之間有什麼界限呢?

四旬芳齡一枝花 保守派應該堅持確定的理念,追求統一,可以有限地 比如時間限制 接受多元,但不能把多元當成目的而加以絕對的承認。用觀念論的話來說,就是可以承認多元,但該多元應該是與一元對立的多元,而不是絕對的多元,否則我們就只能滿足於無限的雜多了。如果多元是與一元對立的,是片面的,不是絕對的,我們就能...

我們在罵乙個人沒文化時我們究竟在罵什麼?

臨雨中 什麼場景下我們會罵別人沒文化?1 對方確實沒文化。跟你說的驢唇不對馬嘴,你無可奈何,蹦出來一句 沒文化!這種你罵的是諷刺,罵的是不和小人一般見識。2 對方有文化。但是一直詭辯,文化水平完全用來詭辯,沒法交流,你無可奈何,蹦出來一句 沒文化!這種你罵的是無奈,罵的是這玩意是個怪胎。3 對方文化...