為什麼GPU比CPU更適合人工智慧計算?

時間 2021-05-05 14:48:04

1樓:Peter Yin

cpu模擬成乙個會微積分的本科畢業生,gpu模擬成10000個小學生,你讓本科生計算10000道加減乘除的運算題消耗的時間肯定比10000個小學生一人算一題時間消耗久,但是本科生能做的微積分小學生解決起來就很困難,偏偏卷積神經網路的卷積就是這種大量的加減乘除的計算,所以用gpu比用cpu快。不知道這麼模擬能不能說清楚問題。

2樓:yhh

人工智慧的顯示系統一定是液晶顯示器,液晶的只能正常顯示15幀畫面。但是,標準的上限是240幀畫面。但是,機器cpu拖不動。

而且液晶也無法顯示。所以,在設定跳幀後。把240個畫面跳幀為15個畫面。

那麼cpu輕鬆了。液晶也能正常顯示。那時,gpu就效能過剩了。

所以,要想辦法把過剩的gpu效能利用起來。就把gpu的ai特性發展起來了。一切都是水到渠成的。

3樓:黃浴

問題本身提問的角度有些偏。計算力和資料吞吐量是平台的兩個主要指標,雲計算是分布式計算,可以由大量CPU構成計算平台,而強項是資料量多,但資料相關不大。GPU多半是資料不大、但計算量超大的情況下最好的選擇。

可是,目前AI計算,應該說是深度學習,其要求計算能力和資料量都很大,這樣雲計算不一定合適,特別是資料相關性也大。比如谷歌早期的深度學習平台DistBelief,其速度不如兩塊GPU卡。

當然將GPU放入雲計算,這是最早Amazon先做的,很遺憾谷歌開始不贊成,覺得雲計算不需要GPU。直到深度學習非常普及之後,Tensorflow出現,谷歌搞出來TPU,還是不想用GPU。

深度學習最適合的不是CPU也不是GPU,而是定製的晶元。人工智慧呢,AI晶元也不少提,大多數是對深度學習模型的訓練和推理進行加速而言。如果是以前的演算法,比如資料量大而計算相對輕的,還有資料相關性低的,雲計算的平台就能夠公升任,多核的伺服器也不會差多少,不需要GPU都可以。

一點拙見,僅供參考。

4樓:逐鹿者不顧兔

GPU適用於資料並行的任務, CPU適用於邏輯型序列任務。 而當前所謂的人工智慧,基於神經網路的,恰恰適合資料並行。 借用知友舉過的類似例子:

有一百萬道小學數學題和4道微積分待解決, 現在GPU就如同有一萬個小學生同時做題,CPU如同有4個大學生同時做題,小學生雖然不會微積分,但一百萬道題還是so easy的,給大學生做這任務量就懵逼了。

5樓:方覺閒

因為GPU為了實現影象處理功能,裡面設計有大量硬體實現的乘加器,而AI用的最多的卷積等基本演算法恰好需要乘加器來完成,這就大大降低了AI演算法的運算時間。GPU在AI上的應用可以說是歪打正著。後期推出的GPU為了更好滿足AI演算法的需要又做了一些改進,這是後話了。

從應用角度來講,為AI 專門研製的協處理器(TPU 或 NPU)處理AI演算法的效率更高,但是對於多數開發人員,用GPU做AI研究更方便,畢竟顯示卡到處都有

6樓:Tharvis

有文章說…也只是有文章說而已,人工智慧有多種演算法,演算法不同,所需的資源型別也不盡相同。GPU優勢是型別單

一、重複的運算,大規模用來挖礦就體現這一點。CPU更適合複雜度高的各項運算。如需大量重複單一運算的場景,還會用到GPU.

為什麼 CPU 的浮點運算能力比 GPU 差,為什麼不提高 CPU 的浮點運算能力?

以前CPU弱,要是搞個浮點數運算的協處理器,運算速度跑的飛起。當然了,如果真為了計算,CPU一樣可以把ALU搞的很強大,不過沒必要。畢竟術業有專攻嘛,CPU主要是流程控制,而不是計算,然而GPU在處理光線之類的渲染的時候,會做大量的計算工作。 chapman zhang CPU是大學生,乙個大學生一...

為什麼react比vue更適合大型應用?

前端361 1,vue的模板寫法在元件資料較多時,資料和模板強相關,模板不能動態抽離為函式,而在react中,jsx可以很方便的抽離為函式,雖然vue也可以在render中寫jsx,但在模板中無法使用this 2,高階元件的寫法上,react可以更好的使用,維護,vue中高階元件大部分情況下時使用m...

為什麼手機gpu的頻率沒有cpu那麼高?

16歲的殿下 按照我的想法也是這樣,手機是多核心CPU所以可以能保持良好發熱,但GPU只有乙個核心,熱就是真熱。多核心GPU就能解決這個問題,但手機體積太小還有就是除了個別幾台機器以外我還沒見過GPU有多核心設計的。 CPU和GPU是兩種不同計算結構的處理單元PE processing elemen...