為什麼要用GPU來訓練神經網路而不是CPU?

時間 2021-05-13 07:24:54

1樓:小M同學

GPU在浮點數的運算上要快於CPU。神經網路訓練往往需要處理大量的資料,GPU高效能會節省訓練的時間。而且選擇 GPU 還需要考慮視訊記憶體的大小。

推薦選擇視訊記憶體大於 8GB 的 GPU,這一點很重要,因為在執行大型神經網路時,系統預設將網路節點全部載入視訊記憶體,如果視訊記憶體不足,則會顯示資源耗盡提示,導致程式不能正常執行。

2樓:小周周的爸爸

神經網路計算特性

1. 最小的邏輯單元簡單 (加減乘除等)

2. 需要計算的最小邏輯單元量大(n個特徵權重)3. 計算邏輯單元大量不互相依賴,能並行。

3樓:Chuan

因為訓練神經網路用平行計算比傳統的串型計算更快。

而平行計算需要在同時在數個計算核中進行,GPU的計算核遠遠多於CPU,所以GPU的計算效率比CPU更高

4樓:Nostalgia

GPU作為coprocessor適合簡單重複的運算。

深度學習就是無數次地計算forward/backward propagation

這種單調重複的運算就適合gpu.

至於為什麼適合gpu,因為它有好多個就處理器來實現平行計算

5樓:

深度學習框架由大量神經元組成,它們的計算大多是矩陣運算,這類運算在計算時涉及的資料量較大,但運算形式往往只有加法和乘法,比較簡單。我們計算機中的CPU可以支援複雜的邏輯運算,但是CPU的核心數往往較少,執行矩陣運算需要較長的時間,不適合進行深度學習模型的構建。與CPU相反,GPU主要負責圖形計算。

圖形計算同樣主要基於矩陣運算,這與我們的深度學習場景不謀而合。根據NVIDIA的統計資料,對於同樣的深度學習模型,GPU和CPU的運算速度可以相差數百倍。因此,乙個好的GPU平台對深度學習十分重要。

6樓:Monstarxtt

神經網路主要包含好多矩陣運算,這些矩陣運算可以通過gpu硬體來完成,cpu執行的話其實就是執行對應的函式乙個運算通過硬體執行自然比軟體執行快的多。現在各ai公司大力研究的ai晶元其實也就是在想辦法讓硬體來做這些矩陣運算

7樓:四海為家

gpu是成千上萬個小處理器核心構成的,CPU最多有幾十個大處理器核心。雖然CPU每個核心的綜合能力強很多,但面對cnn之類的神經網路大量的並行加減乘除運算,就不如gpu並行處理速度快了。

訓練神經網路所需要的gpu是什麼意思?

智星雲服務 圖形處理器是一種專門在個人電腦 工作站 遊戲機和一些移動裝置上執行繪圖運算工作的微處理器。神經網路設計到大量的矩陣運算,GPU在這個方面很有優勢,筆記本上的GPU如果低於2G視訊記憶體,或者過於老舊的GPU型號都是沒有辦法訓練神經網路的,即使6G視訊記憶體對於大型網路和中大型資料集來說也...

有沒有訓練神經網路的數字貨幣?

孫大波 Ekiden算是可以進行訓練神經網路的的區塊鏈專案。原理簡單的來說,就是一些節點執行可信硬體的方式來訓練資料,可信硬體是一模擬較專業的裝置,例如 Intel SGX。這類專案的想法都是訓練放在鏈下,再用密碼學來保證資料 結果的真實性。Ekiden 專案是由 Down Song 宋曉東主導的,...

為什麼多層的卷積神經網路訓練時不用深度學習方法訓練,難道誤差 梯度不會逐層擴散和消失?

Monstarxtt 理論上講深度學習是通過稀疏自編碼求得有用特徵向量之後輸入網路中的。但目前這種非監督學習方法效能不夠好,所以像cnn這種深度學習方法其實也是通過分類監督學習的,優化方法跟普通神經網路差不多。無非網路比較大而已。資料充足的情況下網路越大最終結果越好這一點也沒啥辯駁的。網路雖然很大但...