1樓:Wang Fungtion
可以使用交叉熵損失函式(Caffe裡叫做Sigmoid Cross Entropy Loss),效果不錯,使用起來也很簡單
2樓:Jasmin
有一篇綜述是介紹多標籤演算法的A review on multilabel algorithm,主要介紹了關於機器學習如何處理多標籤問題。MLKNN是在KNN的基礎上修改了方法,處理多標籤問題。
機器學習的多標籤庫有乙個是meka。
我自己用的是MLKNN方法,處理的多標籤問題,效果比較好。
多標籤問題,需要把標籤寫成二進位制編碼形式,1代表屬於該分類,0代表不屬於該分類。
深度學習方面:首先想到的是通過softmax層輸出每個分類的概率,通過設定閾值,來判斷屬於哪種分類,但是親自試過,效果不是很好。
然後,可以通過編寫多個二進位制分類來判斷是否屬於這個分類,但是這種方法對於分類數目較多的情況下不太適用。
然後深度學習可以在softmax層之前加入乙個coding層,每一種分類用乙個bit位表示。
多標籤分類該選BCEWithLogitsLoss還是MultiLabelSoftMarginLoss?
天一神水 1 BCEloss是可以處理多標籤的,官方文件BCEWithLogitsLoss中描述說 In the case of multi label classification the loss can be described as 2 按照PyTorch中文件的定義來說,兩個函式是一致的,...
神經網路多標籤分類?
1.神經網路的輸入 隨機生成的資料。每次生成的資料量需要是一樣的,假設每個樣本有K個資料。2.神經網路的輸出 從幾十根天線裡選擇的幾根天線。假設總共有m根天線,某乙個樣本是要選擇其中的1,3,7根天線的話,我們就可以用乙個m個元素的向量來表示,其中第1,3,7個元素的值是1,其他的元素值都是0.3....
softmax如何作用與多標籤分類?
Jinghao Zhou 話說最近有很多任務作比如circle loss DR loss顯式或隱式地從metric learning做ranking的角度來推廣softmax函式,這種理解最早在N pair loss lifted structued loss出現為 其中第三個連等參考運用了對 和 ...