機器學習中有沒有可以分析特徵重要性的python工具?

時間 2021-05-12 10:21:41

1樓:衛龍大麵筋

少年,你在說pca麼。其實一些無監督演算法都可以做這個工作,就是要清楚,你要哪個cluster。監督演算法,可以配合ranking使用,實測有效。

2樓:美氣

1、通過方差篩選:sklearn中的VarianceThreshold類可以用來做方差選擇

2、卡方檢驗:sklearn中的chi2類可以用來做卡方檢驗3、互資訊:sklearn中的mutual_info_classif(分類)和mutual_info_regression(回歸)來計算各個輸入特徵和輸出值之間的互資訊

4、sklearn的SelectFromModel函式

3樓:

Young:kaggle | Machine Learning for Insights Challenge

我這個日誌的主要內容從kaggle的乙個教學帖子學來的,這裡分析特徵重要性有關的三個python工具庫:eli5, pdpbox, shap

這幾個工具可以方便的表達出:Permuation Importance,Partial Dependence Plots,SHAP Values,Summary Plots

4樓:鋼的弦

1.樹模型,建立好模型以後,看那個屬性里根節點越近則越重要。模型會自帶一些輸出重要屬性的方法。

2.線性模型,模型一般可以直接輸出引數,引數越大越重要。

3.利用互資訊等類似的方法可以做,sklearn有,scipy裡面也有。

5. sklearn有乙個feature_select模組可以做特徵選擇。sklearn庫裡面其實基本的都可以搞定。

6.xgb,lightgbm 這些開源庫也可以做。

機器學習中有哪些方法可以提高穩定性?

簡單說幾個吧 1 增加資料,在我看來這是最有效的方法。但是現實中並不一定可行。2 選擇更robust的模型,比如random forest等。3 增加regularization,很可能模型複雜度過高,捕捉到了過多的噪音。4 對資料處理,比如PCA降噪,data augmentation增加魯棒性。...

有沒有依靠 小資料 學習的機器學習分支

努力上進的碼農 我也曾思考過同樣的問題。小資料集下可能存在很大的bias,效能不錯的模型必須有一定假設。個人覺得這個情況下生成模型會比判別模型效果好。樓主可以參考學習下貝葉斯體系下生成模型,變分推斷,近似推斷等等。雖然這些方法都有做了很強的假設,而且會 腦補 一些沒有看到資料,但是這個不就是在小資料...

精靈寶可夢中有沒有代表某個國家特徵的寶可夢?

說乙個不知道算不算冷門的。大蔥鴨,北京烤鴨,中國 花舞鳥 紅的弗拉明戈西班牙 黃的拉拉隊美國 粉的草裙舞夏威夷 紫的歌舞伎日本 磨牙彩皮魚 原型夏威夷州魚 具甲武者 典型的日本武士形象 紙御劍 原型日本刀 鐵火輝夜 輝夜姬,日本神話 芳香精 法國香水 康康舞 甲賀忍蛙 忍者 鋼羊巖牛草鹿水驢 三個火...