機器學習方向的研究生和博士生如何系統且高效地複習和學習數學?

時間 2021-05-07 04:51:34

1樓:家裡有只肉丸子

我最近幾年也在研究機器學習和深度學習,但主要研究方向是醫療領域應用,對於演算法開發涉及不多。

想要弄明白機器學習要補什麼數學知識,首先要搞明白機器學習一般涉及哪些數學知識。

我稍微舉例幾個常見機器學習演算法以及大概涉及哪些知識,屬於哪門課程

貝葉斯分類器:貝葉斯定理,極大似然估計——概率論、數理統計主成分分析:協方差矩陣,特徵值與特徵向量——線性代數隱馬爾可夫模型:

條件概率,極大似然估計——概率論、數理統計條件隨機場:條件概率——概率論交叉熵損失函式:交叉熵——資訊理論貝葉斯網路:

貝葉斯公式,圖——概率論人工神經網路:梯度下降法,鏈式法則——運籌學(數學規劃),微積分生成對抗網路:條件分布、Jensen-Shannon散度——概率論,資訊理論

這裡列舉的一些肯定還不完備,但是大家大致可以發現有幾門課程跟機器學習牽扯很多,比如線性代數、微積分、概率論、數理統計、資訊理論、運籌學

在我的工作實際中,我覺得如果系統補充數學基礎理論,那麼在此基礎上,應該把下列課程系統地學習一下:

線性代數:機器學習(深度學習)涉及大量矩陣運算,線性代數是重點

數值分析:這門課對線性代數是一種補充,一些實際工作中遇到的矩陣分解,誤差估計在這裡都會講到

微積分:這門課啥不用說了,高等數學的幾乎一切的起源

概率論+數理統計:這兩門課都需要學得比較紮實,機器學習可以解釋為在紛繁複雜的資料中找到一些規律,本質上也可以認為是一種概率問題

運籌學:涉及一些數學規劃,優化的演算法,我記得上學有一門課是數學規劃,也是類似的內容

資訊理論:這門課在很多機器學習和深度學習的公式裡常見,比如我們最常見的一種訓練目標函式——交叉熵損失函式,其原理來自於資訊理論裡面的資訊熵

至於一些答主說的測度論、實變、泛函,可能是我自己接觸演算法還是比較少,工作和研究中確實沒覺得用到。如果學有餘力,當然學習一下想必也是很好的。

另外,我讀書的時候學校還開過兩門課「機器學習」以及「人工智慧及應用」,裡面大雜燴一樣講了很多機器學習的數學理論和公式推導,像這種課程和教材其實可以作為補充,用啥學啥。

2樓:海賊

我的笨方法是,遇到問題就去回頭看。

內心要準備好,耐心慢慢看,告訴自己看不懂很正常,十遍也很正常,十天也很正常,目的是懂,不要在乎時間和效果,在乎進展。

這個過程雖然笨,枯燥,且不斷自我打擊,但走通了有幾個好的副收貨。

1 在不斷打擊下堅持下,會發現自己多熱愛機學2 學習能力及自信心大大成長加強

3 領悟了捷徑其實就是沒有捷徑,也就是我理解的效率哈

3樓:鐵心核桃

我是逼著自己學,每次學都假裝是要給別人講(實際上我也真的經常給別人講),用自己的話複述每個細節,確保自己都懂了,每當完成一次學習,發現自己成了懂王,留下來一堆類似講稿的東西,巨有成就感。後來才知道這叫種方式還是某之名學者積極推崇的方法。

舉個例子,兩周前我開始寫知乎專欄了,有人看沒人看無所謂,就是逼自己,以更新專欄為名不斷努力學習,實際也是上面的思路。

昨天寫分布近似那篇寫到凌晨,挺爽。

研究生讀機器學習的哪個方向好?

大煎餅 通用的方向比較好,將來的出路比較多。從目前來看,卷積神經網路及其變體是最常用的。1 卷積神經網路卷積神經網路至今仍是影象識別領域最常用的演算法,主要包括卷積層 池化層等部分。卷積神經網路 2 殘差網路殘差網路是新增了跨層連線的卷積神經網路。殘差網路 3 殘差收縮網路針對強噪 高冗餘資料,殘差...

博士生在學習上會給研究生哪些忠告?

蟹藥,幾個挺實用的小點子分享給你蛤。如果是碩士的話,就跟前輩搞好關係,好好學習他們的經驗,特別是直系前輩,畢竟都是過來人,多少都還是有一些寶貴的經驗的。而且要從多個人的身上汲取經驗。假人之長以補其短。然後找個好工作畢業拉倒。 七月的雪 投入時間跟精力,不要想著會有什麼捷徑。無論是畢業,還是工作,大家...

如何看待研究生博士生叫自己導師為老闆?

Aqun 雙方的關係有這一稱謂也是很正常的,符合現在大多數的實際情況,但是有些過於利益化了,其實更應該關注的是導師帶給學生的經驗和指導,這個東西是很可貴的真的受用終生 當然前提是你別碰上個王Pan 這類的牛鬼蛇神。 楓林之夏 研究生會幫導師幹活兒,部分 導師會給學生發勞務費,所以形成了這種約定俗成的...