如何理解《統計學習方法》中提到的「複雜的模型有較小的先驗概率,簡單的模型有較大的先驗概率」?

時間 2021-05-05 20:20:24

1樓:劉大彥

是不是我看的版本有問題,我看的版本裡說的正好相反啊,書裡說可以假設複雜的模型有較大的先驗概率,簡單的模型有較小的先驗概率。

2樓:SleepyBag

簡單的模型很可能靠譜(先驗概率大),複雜的模型很可能不靠譜(先驗概率小),所以即使某個簡單模型對於我們看到的資料不如某個複雜的模型,這個簡單的模型也更有可能是更好的模型。

所以我們要用一些方法盡可能得到比較簡單的模型。

比如 L2 正則化,就是認為引數的數值越大,模型越複雜,越不靠譜。即使我們從訓練資料中算出乙個比較大的引數,那也更可能是資料錯了,而不是算出來的這個引數是對的。因此 L2 正則化選擇盡量壓低每個引數的數值。

3樓:

沒有什麼難理解的,1總是不夠分配的,要表達的內容多了,自然就小了。本質不是大小問題,而是佔比,大小畢竟有e和log來處理過小過大問題。

4樓:呆坐的熊

建議題主把前提放上。

這句話在原文中是想用貝葉斯的觀點來表達奧卡姆剃刀。奧卡姆剃刀原則表示在所有可能模型中,既能夠很好地解釋資料並且複雜度最小的模型才是最好的模型。以分類任務為例,如果訓練了兩個模型乙個複雜乙個簡單,他們的測試誤差相同,那麼我們應該選擇簡單的那個模型。

用概率表示式來看,先定義X=,Y1=,Y2=。

P(Y|X)=P(X|Y)P(Y)/P(X)。其中P(Y)就是先驗概率。兩個模型精度情況,即P(X|Y1)=P(X|Y2),為了讓P(Y1|X)>P(Y2|X),所以我們應該讓P(Y1)>P(Y2)。

總結就是讓複雜模型具有小先驗,簡單模型具有大先驗。

5樓:Megumi

先驗概率是指通過先驗知識得到的概率值。換種角度來看,事件發生的概率越小,意味著隨機性更高,模型的複雜度也越高,所以可以理解為複雜模型有較小的先驗概率。如果先驗概率較大,沒有必要使用複雜模型。

李航《統計學習方法》中的Adaboost例項解析(例子8 1)中zm(規範化因子)怎麼求啊?

路飛 想請教您個問題,後邊權值怎麼計算的我明白,但是在進行訓練的時候訓練集和權值怎麼結合的我不大明白,拿第一步來說是怎麼實現訓練集權值是按D1分布的?迭代到第二次,權值變化了D2,分類器的輸入 訓練集 不是也得變麼,那他是怎麼實現訓練集按照D2分布的呢? 天天 問題解決啦。用python編了乙個小程...

學好李航的《統計學習方法》需要哪些數學基礎?

決策不拍頭 需要基本的概率論 線性代數和微積分的基礎即可,我已經對此書重難點進行了詳細講解及公式推導,詳見b站 嗶哩嗶哩乾杯 Bilibili 隊長別開槍是我 概率論與數理統計,線性代數,概率分布的向量表述,部分高等概率 最優化 數學規劃的知識,凸優化,向量微分,高等數學中的多變數極值問題,泰勒展開...

如何理解莊子書中提到的「坐忘」境界?

鏡花世界 在平時聽歌的時候,專注做其它事情時,是不是只知道在聽歌,可是並非在意唱到哪一段了,是否自己喜歡的某一首。所謂大我正是我之小,真我正是我之假,無我正是我之有。 致遠者說 現在的科學研究總是認為人的大腦怎麼怎麼樣,大腦決定人身。我不認同這個觀點。中國文化中關於修身修心的說法理論,心和大腦是不同...