目前深度學習處理器的業界現狀是怎樣的?

時間 2021-05-31 03:06:49

1樓:linhaidu

以後的深度學習晶元,肯定是往兩個方向發展的。乙個是訓練端,不斷提高計算能力,不斷優化學習框架和晶元之間的連線。乙個是推斷端,邊緣計算,需要針對特定的領域,優化特定的模型,滿足速度和精度的要求。

前一種晶元,通用的就是GPU,特定的如TPU,都已經形成一定的生態。

後一種晶元,目前基本空白。在深度學習應用領域最廣的CV和NLP都還沒有專用晶元。

2樓:鴻鶴

關於第乙個和最後乙個問題,可以參考這篇。零基礎看懂全球AI晶元:詳解「xPU」

中間的問題,可以歸結於乙個端和雲的問題。

能不能實時處理,除了和晶元計算力有關,還和場景任務有關。所以,不負責的回答是,能實時處理。負責人的回答是,要看場景任務是什麼。

比如,指紋識別,人臉識別,這些任務,不用深度學習晶元也可以實時,把深度學習演算法跑在AP就可以。隨著演算法的發展,計算量越來越小,AP上跑已經不是問題。例如MobileNet,suffleNet等,都是給移動端優化的演算法。

如果再用專用晶元做加速,效果能快。現在華為和蘋果新手機裡都帶了AI加速器,就是為了端上做實時處理。當然,針對部分場景。

語音識別,還得分是識別命令詞還是做語義分析。命令詞識別,完全可以離線實時處理,我司的晶元處理這個完全沒問題(還沒發布,不要擴散)。又如啟英泰凌的語音識別晶元。

如果做語義分析加對話,目前還智慧型傳回雲端,因為計算量和模型都太大了。這裡的坑,要演算法上解決計算量,計算力上加強,計算能力上支援CNN、RNN等不同結構,同時控制住功耗。

ADAS場景,這部分有些任務必須端上解決,傳回雲端是不能接受的。這方面,mobileye可以,Nvidia也可以。

無人機場景,避障、跟蹤等任務,都是端上就搞定了,大疆用的movidius晶元。

3樓:

感覺今年的深度學習晶元跟前兩年的計算機視覺概念似的,突然被炒起來了。其實統一起來基本可以叫做xPU了。

主要做深度學習的有,寒武紀,地平線,英特爾收購了一家,還有深鑑科技等等,其實有很多的。

深度學習的大部分計算量其實是在訓練部分,訓練部分基本是在伺服器上實現的,土豪公司每人可以配價值幾十萬的核彈廠顯示卡搭建的計算中心,而真正應用的其實其實計算並不是太高的,並沒有想象的那麼恐怖,就算沒有這些專門優化的晶元,感覺也還是能做到實時的,但是功耗應該會很高。

不同廠家會做不同的應用,會因為不同的成本,使用等原因選擇不同的方案,比如雲服務,其實很多家都有使用FPGA加速計算的,當然他們是太有錢,燒包的

目前對多核處理器支援最好的語言就是golang嗎?

大霧哥 不明白怎麼那個喜歡黑語言,go的好處是上手快,效能好,占用記憶體低,歷史包袱小,docker和k8s加持,天然的微服務和併發語言 雲原生玩碼部落 一點淺見奉上 語言怎麼會反著去支援cpu呢?你就是說支援作業系統也稍微接近點。golang應該都是呼叫linux作業系統的底層api去實現多核並行...

intel處理器型號是怎麼命名的?

英特爾所有CPU都分為高 中 低三檔,分別是i7 i5 i3,在這個檔次後面還會跟著小型號,目前所有第二代酷睿CPU的小型號都是以2開頭的,第三代都是以3開頭的。第一位代表第幾代CPU,代數越大,架構更優。i7 4 i7 3 第二位代表處理器等級,數字越大,效能越好。i7 48 i7 47 M即Mo...

cpu處理器限定的tdp是如何控制的?

小夜啼鳥 啊這,剛好問到我在做的了。Intel晶元和供電控制器之間有乙個協議,SVID.根據這個協議會傳送一些資訊,包括供電電壓和電流。如果CPU發現電流或者功率過大超過一定時間,就可以自動降頻。這就是功耗牆,是可以人為設定的,也是可以根據你的散熱方案進行調整的。AMD也有實現類似功能的協議叫SVI...