顯示卡和深度學習有什麼聯絡?

時間 2021-06-06 21:34:15

1樓:麗台科技

君欲善其事必先利其器!顯示卡就是深度學習的利器!

深度學習是模擬人腦神經系統而建立的數學網路模型,具備很大的資料集來訓練,GPU的特點是有大量的核心和高速記憶體,擅長平行計算,運用GPU進行深度學習的訓練和推理的優勢就突顯出來了,而且GPU核心數很多,運算浮點能力強,可以支撐大量資料的平行計算,而且擁有更高的訪存速度。

總結一下GPU的優勢:

多執行緒,提供了多核平行計算的基礎結構,且核心數非常多,可以支撐大量資料的平行計算,處理神經網路資料遠遠高效於CPU。

擁有更高的訪存速度。

更高的浮點運算能力。

而CPU無法做到大量資料平行計算的能力,因此GPU比CPU更適合深度學習中的大量訓練資料、大量矩陣、卷積運算。

2樓:論智

主要是兩點:一、頻寬;二、浮點運算。

CPU和GPU的設計不同。如果用快遞來打比方,CPU像是一輛電單車,而GPU像是一輛貨車。它們都能用來搬用貨物,但是適用的貨物型別不同。

CPU(摩拖車)可以非常快速地訪問記憶體(包裹)而GPU(貨車)訪問記憶體的速度很慢(高延遲)。然而,如果包裹數量很多的話,CPU(電單車)需要多次往返才能完成運輸,而GPU(貨車)一下子就能運輸一大堆包裹。

換句話說,CPU(電單車)適合處理小資料(幾個小包裹)而GPU(貨車)適合處理大資料(多個大包裹)。Intel最高端的Core i9-7980XE,記憶體頻寬約為57GB/s, 而NVIDIA為大資料分析與科學計算推出的Tesla K80顯示卡記憶體頻寬高達480GB/s.

另一方面,CPU是為通用運算設計的,而GPU更擅長並行的浮點計算。

這兩個設計上的區別,決定了GPU更擅長深度學習。深度學習由多層的神經網路組成,這些神經網路包含很多權重和偏置。而這些權重和偏置簡單來說,就是許多巨大的浮點矩陣。

這就意味著,深度學習需要很大的記憶體頻寬訪問這些網路,也需要進行大量的浮點運算。

3樓:何洵

目前為止NVIDIA有這方面的專利,並且已經發布了該顯示卡,主要用於伺服器或者智慧型汽車等終端。NVIDIA在GPU計算或者說深度學習領域已經形成了完整的平台,"並通過這個平台讓更多的合作夥伴實現了業務互動,形成了產業鏈發展。

4樓:團團

深度學習的運算是大量的簡單運算。

顯示卡可以利用多個CUDA核心並行進行簡單運算。

CPU只能按照順序1個挨著1個進行運算。

同樣的執行3000次簡單運算,CPU需要3000個時鐘週期,配有3000個CUDA核心的顯示卡只需要1個時鐘週期。

效率高的不是一點半點。

為什麼深度學習普遍使用顯示卡而不是音效卡來進行計算?

Luv Letter 因為顯示卡的可程式設計著色器向通用化演進,如 CUDA OpenCL 都是這一過程下的產物.而音效卡主要是在於編譯碼 數模 數模轉換,傳統都會整合 DSP.個別音效卡用的是 FPGA 實現 說不定可以跑深度學習 Chemical Waste 因為只有顯示卡GPU和處理器CPU是...

深度學習領域有哪些瓶頸?

knnay 很多資料集中大部分都是冗餘資訊。有用資訊只佔整個資料集的很小一部分。如果能夠在深度學習進行特徵學習的過程中,把冗餘資訊自動地剔除掉,就有可能提高深度學習的效果。面向強噪 高冗餘資料的 深度殘差收縮網路 小文 這個問題下的高質量回答已經很多了,我從工程師的角度談一談深度學習應用的瓶頸。尤其...

壓縮感知和深度學習的關係

這個問題需要這麼糾結麼?簡單說壓縮感知可以做深度網路的乙個特例。深度網路的有效性的根本原因或者說其根本目標就是尋求對問題的有效表達,或者說其能有效解決的問題其實都是簡單 具有低複雜度的有效表示的 問題。這個概念在多體量子系統中也早有表述,一般的多體量子系統的複雜度是指數的,能夠有效表達的多體量子系統...