現在做人工智慧(計算機視覺),有沒有哪些方向對GPU要求低的?

時間 2021-05-12 22:53:43

1樓:ZQ Zhao

你可以從資料集上下手,舉個例子,沒有硬體資源,這些慎重:實驗中要用imagenet的,比如模型剪枝,當然剪枝也有用小資料集的,那些可能理論要求比較高;目標檢測,目標檢測的資料集一般都很大,之前和師兄打比賽,四張Titan xp出一次結果得個四五天。

你在看文章的時候可以關注下資料集的大小。

2樓:空谷幽蘭

純理論方向,比如優化方法,啟用函式,可解釋性等,一般只需要在mnist,cafir等小資料集上證明可行性就OK。但這也是難度最大的方向

3樓:young

如果是研究,我覺得完全不需要衝很多卡,idea才是關鍵,說實在那種衝計算資源的沒有通用性的刷榜模型真心讓人覺得沒多少意思。具體來說,如果資源一般,你可以考慮下看看模型壓縮加速,還有就是搞可解釋,或者弱監督等目前工業界確實需要的地方。

我也只是在福報廠搬個磚,不是專家哈哈,只是說下自己個人的看法,說的不對忽略jiuhqoly

4樓:請叫我Tony老師

計算機視覺研究方向可分為影象分類、目標檢測、影象分割、目標跟蹤、影象濾波與降噪、影象增強、風格化、三維重建、影象檢索、GAN等。

這些方向中影象類的在不涉及大規模訓練的情況下,1-2張卡是完全可以的。

5樓:

太多了,只要不涉及大規模訓練都可以單卡解決,尤其是一些偏影象處理和理解的方向,比如影象檢索,對抗樣本,影象篡改,超分,增強

6樓:wangszvision

我感覺影象復原的任務單卡應該可以應付,比如超解析度,去噪,去雨,還有人群計數。這些任務一張卡(11G視訊記憶體左右)應該沒問題。

7樓:lulululalala

你要是不怕慢,用CPU跑都可以 ,GPU只是用來加速計算的乙個工具,在現在的大資料時代下,沒有GPU來加速計算,訓練任何模型都是很慢的,除非是你做人工智慧理論方面,其他的方向都是需要大量資料來訓練模型。因此,我認為對GPU要求低的方向是不存在的,但是你可以多花一些時間來節約顯示卡上的成本。

舉個例子,我在滴滴研究院工作的時候,在部門中,在部門中做過很多任務作,大資料過濾我做過,知識圖譜,深度圖神經網路都接觸過,我感覺最不需要GPU的就是資料過濾,然而跑三個月的資料,僅僅是做過濾,在伺服器上就花了好幾個小時。

8樓:鄭澤嘉

你可以考慮做神經網路加速。也就是別人訓練好的神經網路你找各種新奇的演算法能夠達到一樣的精度但是算的就是快或者計算量少。

大名鼎鼎winograd演算法造福了一代加速包。如果你發現某種新演算法比如conv 還能算得更快一點那黃教主就會來找你讓你去英偉達玩耍。。。。

一般來說多卡都是用來做訓練用的。你如果研究加速演算法一張卡足夠用了。不夠得是好卡才行。

最近英偉達出的gpu 各種新的data type 層出不窮,對於演算法設計來說開啟了很多路子。如果還拿著Maxwell pascal這種架構的卡肯定享受不到這波紅利。。。

9樓:

只要不在乎效能,完全可以不用gpu。gpu只是用來加速。

其他不用gpu的方案還有dsp,各種npu,fpga等,思路很多。

跨領域人工智慧應用系列 使用計算機視覺方法做海洋瀕臨物種檢測

東方未明 源自 朋克 punk 文化。所謂朋克,原本就是一群低下階層的人用簡陋的物資做成最個性的打扮的地下文化。因此最初的朋克並不追求,甚至是向傳統觀念中的 典雅 乾淨 叛逆。這種亞文化在和科幻題材結合在一起後,便出現了 電馭叛客 Cyberpunk,國內多稱為 賽博朋克 這一支流派。而 黑客帝國 ...

我特別喜歡人工智慧中關於計算機視覺的知識,應該如何去學習呢?

tim1983 巧了啊,我也是搞計算機視覺的工程師啊,計算機視覺還是需要從數字影象處理入手吧,先找幾本基礎的書讀一讀,好歹知道啥叫濾波,啥叫去噪,啥叫訊雜比,啥叫二值化,啥叫形態學濾波。然後再先點工程專案做一下,再提公升就是類似opencv的庫,買點書看看,怎麼使用opencv解決工程問題,最後的終...

計算機或者說人工智慧有沒有可能學會欺騙

Lain 1,人工智慧是在盡可能模擬人類大腦的運作方式 2,人類至今並不能證明人的思維是超過神經網路運作的,除了有些人和宗教自己yy的 3,相同機制執行下,人工智慧的運算能力協同能力等等很快就會遠超人類 4,人工智慧的運算在輸入輸出之間有很大一段是黑箱,不可知不可控。理論上人工智慧是一定能超過人類的...