有人說機器學習近些年的發展只是依賴於「大資料」和「高計算」,在演算法上並沒有突破,這是在影射深度學習麼?

時間 2021-05-06 21:30:38

1樓:賣糰子的小喵吉

不知道什麼才算是演算法的突破。新的核函式?還是奧創?

說深度學習沒技術含量沒進步的,要麼就是不懂深度學習,就只是知道是疊加了神經網路,要麼就是真大牛,看透了世間萬物。

不說別的,從玻爾茲曼機到rbm到dbn到dbm,到各種rbm的拓展,你告訴我這都是沒進步的?還是覺得too easy to learn?

2樓:

純屬外行臆測, 例如dropout等regularization演算法解決的問題, 即是在樣本量很小的狀況下減少過擬合的機會, 同時也大規模減少參數量, 使得一次迭代所需的計算量急遽減少

convolution也使得參數量非常大程度地減少

這些進步何以見得依賴大資料或大計算? 分明是小資料加小計算, 若是沒這些演算法上的進步, 怕是超級計算機也擺不平

3樓:yuzz

不是。以深度學習為例,現在的方法和幾十年前的相比,除了網路的規模變大之外,還引入了很多的演算法,比如dropout,lrn,relu,batch norm等。而這些新的演算法才是dl成功的關鍵

4樓:

個人認為:單單「大資料」和「高計算」,也是很了不起的。

很多我們熟知的演算法,在資料規模每天劇增的今天,面臨一些瓶頸,主要體現在對於處理海量資料的速度和可行性。 而使得一些經典的演算法能夠高速有效的處理當今的大規模資料,本身就是很有意義的工作。

5樓:鄒大爺

大學在實驗室打醬油,對機器學習的理解上,就是套模型,上資料,剩下的就是跑吧!其實不是,實際問題中,模型並不是簡單的套用,需要深入理解,根據問題去優化,去改,目前正在學習,還停留在外行看熱鬧的層次

6樓:

搞機器學習的很少張口閉口提「大資料」這種詞。

深度學習比原來那些方法更有效地壓縮了大樣本的資訊,這就解決了很多問題。

外行人總是要麼迷信要麼懷疑。

倡導:合理地理解和使用科學技術,腳踏實地發展科學技術

7樓:

恰恰相反,深度學習在演算法上還是有突破的,其他真沒有。搞來搞去模型不外乎LR,SVM以及各類決策樹,大部分真正有效的改進都是在優化策略上,比如如何在資料規模很大的情況下進行多機最優化計算。

張口閉口大資料的都是在吹牛,他們理解的大資料估計還停留在計算均值和excel畫圖上

近些年,日本桌球水平是如何發展起來的?

好好 還真沒注意過。看了這麼多年,也是發現突然把日本桌球當回事了。一開始只是福原愛,但實力確實不能跟中國隊抗衡。後來出現了石川佳純,剛開始還是有些競爭力的,原以為會製造些麻煩,但後來也是不夠格。再就是出現了這次亞錦賽的黑馬平野美宇,先逆轉了丁寧又連挑了朱雨玲跟陳夢。一方面是中國隊確實對她沒研究輕敵了...

近些年就業前景好的專業?

北大青鳥大連崇德校區 電腦行業需求量大,工作很好找,而且工作環境也不錯。電腦行業的工作與社會接觸都比較緊密,緊跟潮流,所以見識和思想都會比較開放,也有利於以後自己發展。學習電腦入手比較快,學習難度不是很大。現在有些學校有一些技能加學歷的政策 不過主要看你自己的選擇,上大學雖說聽起來好,但是很多大學生...

為什麼看起來近些年社會科學的發展和得到的支援沒有自然科學大?

其實說實話,我不太明白社會科學能給我們帶來什麼,也許對大部分人來說都是這樣,自然科學帶來的好處是顯而易見的,而社會科學帶來的好處卻虛無縹緲,因此,從國家各項布局上來看,給社科的投入就沒那麼大了 前天,有乙個人向乙個國際大牛提了乙個問題。大牛給出的回答第一句翻譯過來大概是 這個問題很難回答,我不知道你...