李航《統計學習方法》中的Adaboost例項解析(例子8 1)中zm(規範化因子)怎麼求啊?

時間 2021-06-02 07:23:59

1樓:路飛

想請教您個問題,後邊權值怎麼計算的我明白,但是在進行訓練的時候訓練集和權值怎麼結合的我不大明白,拿第一步來說是怎麼實現訓練集權值是按D1分布的?迭代到第二次,權值變化了D2,分類器的輸入(訓練集)不是也得變麼,那他是怎麼實現訓練集按照D2分布的呢?

2樓:天天

問題解決啦。

用python編了乙個小程式,為了詳細解釋,我編的簡單。

def compute_exp(a, y, g1, w):

m = w*(math.exp(-a*y*g1))

return m

z1 = compute_exp(0.4236, 1, 1, 0.1)

z2 = compute_exp(0.4236, 1, 1, 0.1)

z3 = compute_exp(0.4236, 1, 1, 0.1)

z4 = compute_exp(0.4236, -1, -1, 0.1)

z5 = compute_exp(0.4236, -1, -1, 0.1)

z6 = compute_exp(0.4236, -1, -1, 0.1)

z7 = compute_exp(0.4236, 1, -1, 0.1)

z8 = compute_exp(0.4236, 1, -1, 0.1)

z9 = compute_exp(0.4236, 1, -1, 0.1)

z10 = compute_exp(0.4236, -1, -1, 0.1)

s = z1+z2+z3+z4+z5+z6+z7+z8+z9+z10

print(s, z1/s)

答案最後是

s = 0.9165151400883117

z1/s= 0.07143206644239734

z1/s就是第乙個數的權重:0.07143

學好李航的《統計學習方法》需要哪些數學基礎?

決策不拍頭 需要基本的概率論 線性代數和微積分的基礎即可,我已經對此書重難點進行了詳細講解及公式推導,詳見b站 嗶哩嗶哩乾杯 Bilibili 隊長別開槍是我 概率論與數理統計,線性代數,概率分布的向量表述,部分高等概率 最優化 數學規劃的知識,凸優化,向量微分,高等數學中的多變數極值問題,泰勒展開...

如何理解《統計學習方法》中提到的「複雜的模型有較小的先驗概率,簡單的模型有較大的先驗概率」?

劉大彥 是不是我看的版本有問題,我看的版本裡說的正好相反啊,書裡說可以假設複雜的模型有較大的先驗概率,簡單的模型有較小的先驗概率。 SleepyBag 簡單的模型很可能靠譜 先驗概率大 複雜的模型很可能不靠譜 先驗概率小 所以即使某個簡單模型對於我們看到的資料不如某個複雜的模型,這個簡單的模型也更有...

統計學習中的VC維是什麼意思?

先上最直接的定義 對於乙個指示函式集,如果存在h個資料樣本能夠被函式集中的函式按所有可能的種形式分開 則稱函式集能夠把h個資料樣本打散 shatter 函式集的VC維就是能打散的最大資料樣本數目h。若對任意數目的資料樣本都有函式能將它們shatter,則函式集的VC維為無窮大。1 VC維在機器學習中...