1樓:路飛
想請教您個問題,後邊權值怎麼計算的我明白,但是在進行訓練的時候訓練集和權值怎麼結合的我不大明白,拿第一步來說是怎麼實現訓練集權值是按D1分布的?迭代到第二次,權值變化了D2,分類器的輸入(訓練集)不是也得變麼,那他是怎麼實現訓練集按照D2分布的呢?
2樓:天天
問題解決啦。
用python編了乙個小程式,為了詳細解釋,我編的簡單。
def compute_exp(a, y, g1, w):
m = w*(math.exp(-a*y*g1))
return m
z1 = compute_exp(0.4236, 1, 1, 0.1)
z2 = compute_exp(0.4236, 1, 1, 0.1)
z3 = compute_exp(0.4236, 1, 1, 0.1)
z4 = compute_exp(0.4236, -1, -1, 0.1)
z5 = compute_exp(0.4236, -1, -1, 0.1)
z6 = compute_exp(0.4236, -1, -1, 0.1)
z7 = compute_exp(0.4236, 1, -1, 0.1)
z8 = compute_exp(0.4236, 1, -1, 0.1)
z9 = compute_exp(0.4236, 1, -1, 0.1)
z10 = compute_exp(0.4236, -1, -1, 0.1)
s = z1+z2+z3+z4+z5+z6+z7+z8+z9+z10
print(s, z1/s)
答案最後是
s = 0.9165151400883117
z1/s= 0.07143206644239734
z1/s就是第乙個數的權重:0.07143
學好李航的《統計學習方法》需要哪些數學基礎?
決策不拍頭 需要基本的概率論 線性代數和微積分的基礎即可,我已經對此書重難點進行了詳細講解及公式推導,詳見b站 嗶哩嗶哩乾杯 Bilibili 隊長別開槍是我 概率論與數理統計,線性代數,概率分布的向量表述,部分高等概率 最優化 數學規劃的知識,凸優化,向量微分,高等數學中的多變數極值問題,泰勒展開...
如何理解《統計學習方法》中提到的「複雜的模型有較小的先驗概率,簡單的模型有較大的先驗概率」?
劉大彥 是不是我看的版本有問題,我看的版本裡說的正好相反啊,書裡說可以假設複雜的模型有較大的先驗概率,簡單的模型有較小的先驗概率。 SleepyBag 簡單的模型很可能靠譜 先驗概率大 複雜的模型很可能不靠譜 先驗概率小 所以即使某個簡單模型對於我們看到的資料不如某個複雜的模型,這個簡單的模型也更有...
統計學習中的VC維是什麼意思?
先上最直接的定義 對於乙個指示函式集,如果存在h個資料樣本能夠被函式集中的函式按所有可能的種形式分開 則稱函式集能夠把h個資料樣本打散 shatter 函式集的VC維就是能打散的最大資料樣本數目h。若對任意數目的資料樣本都有函式能將它們shatter,則函式集的VC維為無窮大。1 VC維在機器學習中...