乙個無監督學習演算法,如何判斷其好壞呢

時間 2021-05-11 11:46:56

1樓:Shu Matt

如果你使用的是概率方法,那麼你有model evidence(或者它的近似,例如AIC,BIC)可以當做判據。另外你也可以使用cross-validation的likelihood當近似判據。

例如,以下方法是概率方法:

GMM cluster,PPCA

以下方法不是:

k-means,PCA

2樓:「已登出」

when in doubt, subsampling簡單來說你可以以 sqrt 或者更小的隨機subsampling出的樣本去聚類 m次,看看有哪些點分類不太一致;

這樣我們有了variance的估計

bias的話我也沒有辦法

不過如果你演算法不是非常線性或者樣本太少,你要自己算subsampling後如何改聚類演算法來算原聚類演算法的 variance(說多了是淚

3樓:

無監督學習演算法我就當是聚類了((●●))

簡單來說聚類演算法的優異性主要依靠分類結果的好壞來分級,類內越相近,類間越遠越好。

時間複雜度和空間複雜度是錦上添花,在前面的好壞程度差不多的兩個演算法之間可以用這兩個條件來做進一步區分。

不過畢竟我們的時間和空間都不可能無窮,所以一般根據自己的實際情況,來選擇對應的演算法,很多時候我們選擇犧牲一部分效能(這裡指結果的好壞程度)來提公升效率(指時間複雜度和空間複雜度,當然很多時候這兩者可以有互換,雖然程度依演算法而變)。

4樓:KevinSun

終於有人來問這個我最感興趣的話題了。不過是手機回覆,說來話長,我就長話短說了:把無監督學習的結果帶給乙個有監督的任務來衡量。直接看結果。針對你這個問題,就是一樓哥們說的咯

5樓:

最簡單的情況:用normalized mutual information

它可以度量同一組資料的兩種給標籤的方法之間的差異所以你可以選取有標籤的資料來訓練,先去掉標籤混到一起,用不同的演算法聚類,聚類之後再按照聚好的類打上標籤,然後分別計算標準標籤(就是原來的標籤)和聚好類之後的標籤之間的差異大小,跟標準標籤相差最小的標籤就是最好的

其他的你去google好了,我也不是專門學ML的,只知道這一種ref:

Mutual information

Evaluation of clustering

如果乙個人的成長只依賴無監督學習和增強學習,那麼他會有怎樣的經歷和結局?

請看 傷仲永 金溪民方仲永,世隸耕。仲永生五年,未嘗識書具,忽啼求之。父異焉,借旁近與之,即書詩四句,並自為其名。其詩以養父母 收族為意,傳一鄉秀才觀之。自是指物作詩立就,其文理皆有可觀者。邑人奇之,稍稍賓客其父,或以錢幣乞之。父利其然也,日扳仲永環謁於邑人,不使學。餘聞之也久。明道中,從先人還家,...

有乙個學習特別好並且在隨時監督你學習的男朋友是什麼感受?

華佗沒有壺 研一的時候,我男朋友大四,在我們實驗室做畢設。六月份他畢設做完了,已經準備畢業了,就不怎麼去實驗室了。因為學校實在太大了,實驗室到我們寢室那邊要電動車15分鐘。我晚上為了和他約會 因為本科生還有十一點的門禁!就九點多偷偷溜回去。然後他大概太鋼鐵了吧,每天晚上我們倆就坐在宿舍旁邊的小花園裡...

作為乙個演算法小白如何學習演算法?如何在有限的時間內快速提公升自己的演算法能力?

已登出 刷題就要耐得住性子,不要只追求數量。從簡單題目開始,逐漸增加難度。拿到題目先自行思考,如果乙個小時左右沒有思路就看解答,不要硬想,參照解答去思考自己的卡點在哪,是哪部分掌握的不好,結合書籍把知識點補牢。刷題可以按照類目,不同的題目可能是考的乙個知識點的不同方面,有的知識點能夠從多個方面考察,...