300條資料,12個維度,能做機器學習嗎?

時間 2021-05-06 00:52:59

1樓:三少

這個沒什麼可以不可以,120條資料,200個特徵都能做的也有,不過資料非常稀疏。 200個特徵和20個特徵結果差不多。其實能不能做主要看label均衡與否。

2樓:宇智波帶土

應該是可以的,關鍵在於你資料的代表性和分布情況,機器學習的重點不在於樣本的多少,而是通過演算法發現資料之間的模式關係,如果你的資料具有代表性,完全可以機器學習。經典的鳶尾花資料只有150個樣本,4個緯度,經常用來做機器學習演算法的講解例子。

3樓:李正非271

這個場景,比上次那個還強點...

共有39組資料,每組有6個特徵能進行機器學習嗎?

300、12什麼的都不重要,關鍵是你的300個樣本能不能代表整體population,以及你的12個特徵能不能代表所有的有意義的特徵

可以通過鏈結裡的方式擴大樣本數量,沒什麼複雜的。並且如果12個特徵有點什麼邏輯關係,也可以手工擴一些,比如誰誰相加減誰誰不能長期小於零之類的

如果樣本相減這個方式實際測試並且有結果,請告訴我,我有點好奇

MySQL中1萬條資料查詢花費35秒,求解釋?

聿明leslie 你這條query為什麼會慢呢?b表的where條件是個子查詢,這個子查詢不能被改寫成semi join,那麼就是老老實實的子查詢,子查詢的實現等同於nested loop join,就是外表做驅動表,驅動內錶做rescan,b表有1萬條資料,那麼就會驅動aa表1萬次rescan,這...

1萬億條資料怎麼儲存和查詢?

大夢人生 GPS行業,每條資料0.5k。每個客戶10秒一條資料。目前乙個月大概有2億條資料。未做分片集單伺服器的情況下5億條資料 80G磁碟占用空間,50 100G的記憶體占用 遇到查詢效率慢的情況,優化查詢方式後正常。目前已上分片集 資料讀寫響應在300ms內 總得來說MONGODB簡單好用。 雷...

使用Python在58萬條資料的資料集上進行機器學習,執行速度很慢,怎麼優化?

deff cnn 1 train set train label 訓練集的所有下標 set t iforiin range len train set 初始化最近鄰列表 nearest 5 120,點5在集合S中的最近鄰是120 nearest 1 len train set 子集S set s S...