深度學習在AI實現方法上是否已經形成了壟斷,這是不是一種不好的狀態?

時間 2021-05-06 18:36:22

1樓:

科研的目的在於對生產力的推動,不僅僅是為了自身的滿足,為了科研而科研。設計很好的網路,很好地解決實際問題,這樣的科研難道沒有意義嗎?

深度學習的出現,很大程度上推動了人工智慧的發展,也創造出了實用的產品,從這一點上看深度學習是很有好處的。但是很多科研工作者為了刷文章,連BP公式都不會推導就做的話,這也不能怪到深度學習上。

btw,記得有一句很出名的話:「新的思想被大家接受,不是因為持有舊思想的人被說服,而是因為他們都死了。」

2樓:灼若芙蕖

quora在這方面有類似的問題,是說深度學習本身有什麼問題是不完善或者是未解決的。有個回答很有意思:

Deep learning itself is a missing, unsolved problem. It is an empirical success rather than a mathematical solution to the learning problem. Everybody says It imitates human brain, then why babies do not need millions of labelled examples to recognize a pattern in an image?

Nobody yet knows why It is working (or not), including its inventors like Yann LeCun. See his keynote speech at CVPR 2015 on the missing theory behind Convolutional Neural Networks (CNN)[1]. On page 58, LeCun explains some missing theories as:

Why are ConvNets a good architecture?How deep ConvNets should be? (aka how many layers)Local minima problem in training

Inventor of Support Vector Machines, Vladimir Vapnik, sees CNNs more of an engineering effort, rather than a research product [2]. He thinks current success of CNNs is due to the big-data (more data always beats wiser algorithms).

3樓:

DL僅僅是學習機制上的優化而已,接下來還需要走很長的道路,如果一台人工智慧機器需要一間屋子那麼多的運算和寄存裝置的話實用性又有多大的呢?能夠自主有選擇地發出學習指令的核心引擎才是最需要解決的問題吧?沒有自主「意識」的機器都不能稱作智慧型的呢。

4樓:233535235234523

深度學習的核心思路是分層學習。觀察一些專業的發展,可以看出自然界的衍化也是分層模式的。例如數學,從公理開始,推演出一些基本定理,在定理基礎上,又可以推導出新定理,逐層發展,越來越複雜。

語言衍化也有這個特點。

機器深度學習,是一層層提取特徵。我們能感知的特徵包括:空間(大小,長短),時間特徵,顏色特徵,明暗,速度變化,聲音(頻率,高低),嗅覺,味覺,觸覺。

現在適合深度學習,具有大量資料的特徵只有:影象,聲音。

移動感測器技術完善後,將有更多基礎特徵可以用來做深度學習。深度學習才剛剛開始,我在思考可以用人機互動方式做共生模式的機器學習。

5樓:

不是壟斷,而是熱潮,人工智慧還沒有成功的實現方法,還處於探索階段,那麼必然有不同角度的各種方法,大家一起向同乙個目標出發,但它們會遇見各自的困難,如果被攔住了無法前進了,那麼就會流向還在前進的地方,但只要一天還沒實現,其他方法就還有研究的價值,仍然有人在默默地堅持,所以只有熱潮沒有壟斷,如果有一天這條路也被攔住了無法前進了,那麼熱潮就會消退,並且尋找下乙個突破,醞釀下乙個熱潮。

6樓:

深度學習能夠結合之前的幾乎所有方法,而之前的很多方法都是互相排斥的,從這個角度而言深度學習是有優越性的。

至於說深度學習沒有數學基礎什麼,那只是人類太菜了。關於深度學習,這個東西本身就沒有什麼很好的定義,我可以將其定義為任何乙個含參的模型,那麼深度學習最大的價值就是人類可以不知道他發明的東西為什麼work。這才是深度學習的核心。

中二一點,人類終於能開始創造人的大腦所無法理解的東西了。

7樓:

舉個不恰當的例子:原始人在漫長的進化中終於意識到可以用水來清洗物品。於是他們無論什麼髒了都用水洗,手,腳,食物,器具,甚至最後車子房子都直接用水衝,只要水量夠大,時間夠長,總能洗乾淨。

但如果一直這樣下去,那就不會有肥皂,也不會有人想到清潔房子只需要重新粉刷,也沒有所謂的乾洗一說了。

在我看來,以前對不同場景的研究的目的,是為了建立乙個高效的數學模型。而現在,這個工作被深度學習替代了。我們只需要有足夠的時間,足夠的運算能力,深度學習總能給我們乙個還能用的模型。

但至於這個模型到底是怎麼來的,數學本質是什麼,我們都不關心了。甚至很多時候連模型的具體構型我們都不清楚。這也不得不說是一種悲哀吧。

最後說一下對立體視覺的看法。其實三維資訊和理解資訊並沒有實際清晰的界限。從人類的角度,我們能夠直觀認知的就算是三維資訊,而沒法直接得到概念的往往歸為理解資訊。

所以其實對於機器視覺也是一樣。如果你的場景模型做得足夠好,資訊處理得足夠細緻,那最終得到的雖然形式上是三維資訊,但其實這些資訊已經可以直接被機器理解了。我始終覺得深度學習其實是在普通演算法無力處理情況下的一種妥協。

非專業人士,不對的地方望海涵以上

8樓:楊博

深度學習相比統計學方法來說,肯定是碾壓的。因為深度學習幾乎是所有統計學方法的超集。大多數統計學方法都可以直接看成複雜神經網路中的乙個部分。

個人感覺可以把深度學習看成是聯結主義人工智慧的銀彈。

至於機器定理證明等符號主義的人工智慧方法,我覺得潛力還沒挖夠。日後,符號主義和深度學習的結合可能會迸發出難以想象的成果。

至於基於主體的人工智慧,我覺得是歪門邪道,和深度學習結合可能會導致人類滅亡。

9樓:張華

【研究多樣化】是不需要【主張】的。

DL這個坑滿了自然有人挖別的坑。就看誰願意去做引領者了。

但是對新手而言,這段話點明了乙個研究要點:

現在找個應用場景去搭個DL系統+調引數+大量訓練+比結果這套的做法已經過時了,

高校的研究者們再這麼搞不會有前途。

深度學習工具caffe在windows上的效能表現真的沒有在Linux上好嗎?

今天在同一臺電腦上同時配置了 Windows Caffe 和 Linux Caffe,使用的是 CUDA9.2 CUDNN 7.1,實測下來速度是一樣的,請大家放心使用。不過其實我裝 Linux 是要來用 MXNet 和 PyTorch 的,逃. gonglun 你好,最近在嘗試在windows環境...

是否可以用深度學習,人工神經網路來實現可控核聚變?

用deep learning 解決 AGI,然後 AGI 解決一切問題。這個想法是 Tomaso,Poggio 的。不敢貪功,可恥的匿了。 現階段機器學習可以做到將輸入和輸出自動關聯,也就是說必須有資料才能學習資料的特徵。這意味著現階段機器沒有憑空的創造力。以後人工智慧發展了,也許會有聯想的能力和創...

機器學習,深度神經網路等方法是否是正確的方向?

陳小小 神經網路只是一種模型,我們要關注的是任務和問題而不是某一種模型,神經網路是解決某些任務的手段罷了。其實除了傳統的幾大任務包括視覺 語音 NLP 博弈論和機械人,還有很多問題值得我們關注。比如intuitive physics,intuitive psychology,compositiona...