多標籤(multi label)資料的學習問題,常用的分類器或者分類策略有哪些?

時間 2021-05-06 09:09:31

1樓:Wang Fungtion

可以使用交叉熵損失函式(Caffe裡叫做Sigmoid Cross Entropy Loss),效果不錯,使用起來也很簡單

2樓:Jasmin

有一篇綜述是介紹多標籤演算法的A review on multilabel algorithm,主要介紹了關於機器學習如何處理多標籤問題。MLKNN是在KNN的基礎上修改了方法,處理多標籤問題。

機器學習的多標籤庫有乙個是meka。

我自己用的是MLKNN方法,處理的多標籤問題,效果比較好。

多標籤問題,需要把標籤寫成二進位制編碼形式,1代表屬於該分類,0代表不屬於該分類。

深度學習方面:首先想到的是通過softmax層輸出每個分類的概率,通過設定閾值,來判斷屬於哪種分類,但是親自試過,效果不是很好。

然後,可以通過編寫多個二進位制分類來判斷是否屬於這個分類,但是這種方法對於分類數目較多的情況下不太適用。

然後深度學習可以在softmax層之前加入乙個coding層,每一種分類用乙個bit位表示。

多標籤分類該選BCEWithLogitsLoss還是MultiLabelSoftMarginLoss?

天一神水 1 BCEloss是可以處理多標籤的,官方文件BCEWithLogitsLoss中描述說 In the case of multi label classification the loss can be described as 2 按照PyTorch中文件的定義來說,兩個函式是一致的,...

神經網路多標籤分類?

1.神經網路的輸入 隨機生成的資料。每次生成的資料量需要是一樣的,假設每個樣本有K個資料。2.神經網路的輸出 從幾十根天線裡選擇的幾根天線。假設總共有m根天線,某乙個樣本是要選擇其中的1,3,7根天線的話,我們就可以用乙個m個元素的向量來表示,其中第1,3,7個元素的值是1,其他的元素值都是0.3....

softmax如何作用與多標籤分類?

Jinghao Zhou 話說最近有很多任務作比如circle loss DR loss顯式或隱式地從metric learning做ranking的角度來推廣softmax函式,這種理解最早在N pair loss lifted structued loss出現為 其中第三個連等參考運用了對 和 ...