機器學習如何在小樣本高維特徵問題下獲得良好表現?

時間 2021-05-09 05:44:04

1樓:

active learning,可以在query少量樣本(uncertain, informative,diverse )的情況下,獲得巨大的效能提公升。

2樓:摸不著頭腦

看到前面有人做的醫療影像的,我也是做的相關方面的,結合自己的經驗來拋磚引玉一下吧。

我認為可以嘗試結合先驗知識建立先驗模型,諸如概率密度模型,pca模型等,這種模型可能有兩個作用,乙個是可能降低問題的複雜度,減少需要的深度學習網路的層數,另一方面如果模型建立的好的話,可以利用模型產生訓練資料,從而迴避資料不足的問題

3樓:

小樣本學習很多年來一直都是統計機器學習研究的重要問題。

看到已經有人提到了貝葉斯方法以及一些針對小資料量設計的模型(比如SVM)。一般來說還可以適當加入更多的先驗知識(比如假設引數符合某些分布等等)來減少對資料量的需求。比如語音識別裡做說話人自適應(把用大量資料訓練好的模型用很少的資料調整到更適合某個說話人的特點)的MAP方法。

類似的廣為接受的說話人自適應方法還有把模型分組,進行分組線性變換的MLLR,以及開始就把所有人分為有限的固定類別(類似於線性空間的基),只用少量資料學習基的線性組合的權重的CAT方法等等。類似這樣的trick還有很多。

然後如果一定要用deep learning方法的話,還是可以做貝葉斯。或者把模型的尺寸調小(這樣每個引數的平均統計量就多了)。另外最通用的就是正則化的方式,廣義的正則化的包括L1、L2、dropout、multi-task learning(包括準則的插值等)、early stopping,還有一些空間平滑的方式等等(甚至有人開玩笑說程式有bug也算……)。

另外還有人提到transfer learning,比如前面提到的說話人自適應就可以看成某種transfer learning。話說deep learning一開始的時候關注的正是小資料量和無監督學習,只不過後來被大企業帶跑了,於是大家都忘了一開始是怎麼來的(Goodfellow的Deep Learning書裡也提了這件事)。

4樓:溫暖的逗比

我所接觸的醫療影像、生物資訊類的資料,能採集到的樣品資料,相對於商業資料動則幾萬上億來說,基本上都少的可憐。

研究生專案其一,與某種特定手術有關的腦影像,資料質量過關的就22例。專案其二與生物訊號有關,受到目前資料採集裝置的限制,同一批次最多不過300多樣本。

實驗室其他疾病相關腦影像,少的14、36、72,多的頂天400、1500,全部都在用機器學習嘗試解決問題。生物資訊、生物醫學鄰域現狀如此,大量的樣本難收集不是不是特例而是常態。

目前的接觸過的應對方法:

簡單的可解釋性高的模型,能線性模型就不非線性,特徵提取+特徵工程+統計學習可以的,就不上黑匣子deep Learning。

嚴格的交叉驗證,三折五折交叉驗證那是少的,恨不得每個都LOOCV,減少樣本集合劃分的隨機性;有時候超參也用交叉驗證來調,避免人為選擇,就得上巢狀交叉驗證。

謹慎地特徵工程/特徵選擇/特徵壓縮。先驗知識也好,統計資訊也好,PCA也好,把特徵維度降下來,把關鍵特徵找出來,最後哪怕不展示模型只展示關鍵特徵呢,效果不好不要緊,泛化能力好最要緊。

遷移學習,醫療影像裡,拿比較容易獲得標記的資料做訓練,例如ImageNet,公開資料集等,遷移到目標任務上。效果好皆大歡喜,效果不好再試著調調,調了還不好那就是命。

瞎叨叨幾句,不那麼嚴謹,大家看看就好。

5樓:

瀉藥。有,而且這方面的需求有很多。

我們經常會遇到在想訓練某個模型時,找不到合適的公開資料集,或者資料集的收集和標註不方便的情況。如果靠自己標,那麼你可能標不了多少資料。

自然,人們會想辦法怎麼充分利用現有的公開的資源,從而提高工作效率。

舉乙個例子,Convolutional Encoder Decoder Network.

除此之外,遷移學習的很多方面都有這方面的問題需要解決。比如 multitask learning, domain adaptation 等。

對這方面感興趣的同學,我們可以私聊。

6樓:

這個問題用各種機器學習演算法不如用統計檢驗的方法做前期的特徵工程。

機器學習適合大量海量資料。

統計檢驗適合少量資料。例如著名的T檢驗

如何提高機器學習演算法的召回率?(尤其在樣本集不平衡時)

舉個例子,豐田公司的 召回門 事件,當時在全球召回850萬輛車,但是這裡面真正有問題的車有多少呢?可以理解為豐田公司為了提高 召回率 下了血本,那也是沒有辦法的,回到題目,在樣本不平衡的情況下提高召回率,只能 誤殺 大部分,就是降低P,這裡有乙個平衡P和R的乙個指標F1,就是兩者的調和均值,但是像上...

AI或機器學習,如何確定訓練樣本資料的規模?是越多越好嗎?還是適度就好,資料量適度的評判標準是什麼?

李鵬宇 這個問題也困擾我好多年了,這裡拋個磚。據我所知沒有公式或工具可以告訴我們乙個AI類任務需要多少訓練樣本。總的來說,我們在做AI類任務的時候,是不知道到底需要多少訓練樣本的。順利的情況下,我們基於經驗拍腦袋定下的資料集大小,正好可以完成任務 大多情況下,訓練集最終的大小,是需要逐步確定的。在決...

如何通俗地理解機器學習中的 VC 維 shatter 和 break point?

章浩 下面冗長無趣的分析,實在看不下去了。與其看看零碎的碎碎念,東拼西湊的我覺得。不如看林軒田大佬親自講的video來的系統 PAC可學習性,看p26 p29即可,30分鐘搞定 林軒田機器學習基石 國語 嗶哩嗶哩 乾杯 bilibili 如果對video理解感到困難的同學,可以參考下面這個同學寫的部...