如何提高機器學習演算法的召回率?(尤其在樣本集不平衡時)

時間 2021-05-07 01:27:25

1樓:

舉個例子,豐田公司的「召回門」事件,當時在全球召回850萬輛車,但是這裡面真正有問題的車有多少呢?可以理解為豐田公司為了提高「召回率」,下了血本,那也是沒有辦法的,回到題目,在樣本不平衡的情況下提高召回率,只能『』誤殺『』大部分,就是降低P,這裡有乙個平衡P和R的乙個指標F1,就是兩者的調和均值,但是像上面的例子就不需要了,目標就是提高R

2樓:anonymous

之前也做過乙個文字分類,同樣是資料不平衡(1:30),我當時的情況是召回率很高,但準確率很低,同樣過取樣,欠取樣效果不明顯。

不清楚題主具體是什麼任務,感覺還是從特徵工程方面入手比較合適。

1、建議查閱下相關文獻的做法,是否提取的特徵仍然不夠好,我們當時baseline只用了TFIDF效果特別差,後來加入word2vec等之後有了明顯提公升

2、分析Bad case,PRC,各個特徵的權重分布,剔除無效特徵,增加有效特徵

3樓:王贇 Maigo

1:3不能算極度不平衡。

如果你475個正樣本只能召回5個,往往是程式實現有bug;其次可能的原因是你選取的特徵對於你要做的任務沒有幫助。

4樓:

資料集的特徵是否還可以再作處理呢?如果可以從特徵上做比如pca,ica之類的,又或者做一下特徵選擇再做下取樣分類。另外,可以嘗試用隨機森林等整合學習演算法做分類。

機器學習的梯度下降演算法中尋找最合適學習率「阿爾法」的意義是什麼?

洋洋 目標函式的變數還是theta,可以把alpha視為乙個可以改變的常量,我們的目的就是為了更快地更準確地收斂到最小值。就好比要從a點到b點,ab 100公尺,我們的目的是達到b點 目標函式收斂 我們 變數 可以選擇不同的交通工具 alpha 到達b點,乘飛機 alpha較大 還沒起飛就到b點了,...

模擬於人腦的思考過程,機器學習 深度學習演算法的得到結果過程更像是理性思考還是直覺判斷?

唐唐唐 目前機器學習或深度學習類似人類學習過程的經驗,能夠很好的從資料中得到經驗,但是對於需要複雜推理的問題,無法挖掘深層次的潛在邏輯,特別對於本身具有抽象概念的問題。特別缺乏人類學習中強調的活學活用,很像是一位 書呆子 人腦決策過程區分理性思考和直覺判斷的界限並不清晰啊 沒法模擬。機器學習通過學習...

關於機器學習演算法中的smote處理不平衡問題,是針對於整個資料集處理還是僅針對訓練集來處理?

facetothefate 嘛,這個問題顯然可以翻譯成 對於交叉驗證,到底應該在哪做over sampling?顯然有這麼幾種做法 1,對整個開發集做over sampling,然後再交叉驗證 2,先劃分,對訓練集做 over sampling,用測試集測試 首先第一點要銘記於心的是,我們進行交叉驗...