神經網路訓練時如何找到最優的那個隨機種子?

時間 2021-06-04 02:13:37

1樓:雪莉

樓上很多說初始化不重要的,是不是沒怎麼跑極小引數的pixel的任務?工業應用,就要求四五層卷積,通道數最多16,初始化對結果影響不是很大,是非常大

2樓:CurvaNord

我一般選42,torch.manual_seed(42)

42: The answer to life, the universe and everything.

— Douglas Adams

3樓:Matrix

隨機種子的選取並不重要,對於乙個好的模型隨機種子的不同對訓練結果影響並不大,所以說還是要對模型進行優化。

樓上那個找平均的方法可以,多跑幾遍就好。

4樓:

好的引數初始化不同隨機種子是效能是差不多的,不同隨機種子效能差別大一般說明引數初始化方法不太合適。另一種避免隨機種子影響的方法,加訓練時間,訓練的時間足夠長,不夠好的初始化也該收斂了。

效能指訓練集效能,未考慮過擬合/泛化。

5樓:Fain

最優隨機種子不應該去找,隨機性的存在正好用來評估模型的魯棒性。乙個優秀的模型,不會因為隨機初始的位置略微不同,而找不到最優的位置。這是模型本身應該要化解的工作,而不是人為選擇乙個隨機數。

6樓:普羅公尺·羞羞

不要去找,多跑幾個取平均。

找最佳隨機種子的過程就是手工過擬合的過程,過擬合出來的高效能沒有意義。

這麼想過擬合直接把測試集放訓練集裡訓練更快,更好,更方便。

模型可以依賴初始化方法。如果乙個模型依賴初始化種子,那麼這個模型基本沒有任何價值。

7樓:Jusper Lee

隨機種子僅是固定初始化引數,也就是使你的模型初始化是固定的。模型質量的好壞才是決定你的結果好壞。所以是否找到隨機種子,其實影響不大,我一般不會去設定這個隨機種子。

8樓:愛吃牛油果的璐璐

隨機種子和神經網路訓練沒有直接關係,隨機種子的作用就是產生權重為初始條件的隨機數。

神經網路效果的好壞直接取決於學習率和迭代次數。

簡單的說,計算機中生成隨機數的過程並不隨機百,但是其初始數(種子)是隨機的。在深度學習中,(比如深度神經網路)我們常常需要對網路中超引數設定初始值,比如權重,在這裡我們需要用到一些生成隨機數的函式,這些函式一般通過手動設定種子,如果種子設定為相同的,那麼得到的初始權重就是一樣的。

有沒有訓練神經網路的數字貨幣?

孫大波 Ekiden算是可以進行訓練神經網路的的區塊鏈專案。原理簡單的來說,就是一些節點執行可信硬體的方式來訓練資料,可信硬體是一模擬較專業的裝置,例如 Intel SGX。這類專案的想法都是訓練放在鏈下,再用密碼學來保證資料 結果的真實性。Ekiden 專案是由 Down Song 宋曉東主導的,...

為什麼多層的卷積神經網路訓練時不用深度學習方法訓練,難道誤差 梯度不會逐層擴散和消失?

Monstarxtt 理論上講深度學習是通過稀疏自編碼求得有用特徵向量之後輸入網路中的。但目前這種非監督學習方法效能不夠好,所以像cnn這種深度學習方法其實也是通過分類監督學習的,優化方法跟普通神經網路差不多。無非網路比較大而已。資料充足的情況下網路越大最終結果越好這一點也沒啥辯駁的。網路雖然很大但...

如何解決圖神經網路(GNN)訓練中過度平滑的問題?

哆啦X夢 賣一下自己的方法,簡單好用,對oversmoothing很有效。並對oversmoothing以及DropEdge起效果的原因進行了理論分析。DropEdge Towards Deep Graph Convolutional Networks on Node Classification ...