機器學習中,什麼是基於子空間的學習,為什麼用子空間學習?

時間 2021-05-31 06:36:35

1樓:li Eta

子空間學習: 舉例說明,比如你拿到了一組資料要做分類任務,然而資料分布在乙個高維空間中,不太方便處理,維度太高導致採用的分類模型的複雜度也相應增高,最終導致分類模型容易過擬合。一般情況下,這個問題無法解決,但是,資料中往往存在一些特性使得這個問題又有了可以解決的希望,比如資料其實分布在高維空間的乙個子空間中,你拿到的高維資料其實是子空間中的無雜訊資料+高維雜訊資料,而這個子空間的維度其實不是很大,那麼找出這個子空間,就能保證盡量不丟失資訊又能降低資料維度,在這個子空間中做訓練,就可以降低過擬合現象。

常見的PCA LDA LLE 等都是基於spectral method(譜方法)的子空間學習方法,往往可以看做是kernel pca的特例。還有一類子空間學習方法是R. Vidal做的SSC(subspace clustering)系列,有相應的理論保證。

廣義上看,子空間學習就是降維。

2樓:芥末豬

A sub-field within machine learning that is based

on algorithms for learning multiple levels of representation in

order to model complex relationships among data. Higher-level

features and concepts are thus defined in terms of lower-level

ones, and such a hierarchy of features is called a deep architecture. Most of these models are based on unsupervised learning of

representations

3樓:Jason Gu

說說我理解的子空間學習。

子空間學習大意是指通過投影,實現高維特徵向低維空間的對映,是一種經典的降維思想。

例如人臉影象,如果每幅影象提取出來的特徵是1000維,則每幅影象對應著1000維空間中的乙個點。維數太高給計算帶來很多問題,且很多人認為真實有效的人臉影象特徵並沒有那麼高維,可能只有100維,即每幅人臉只是100維空間中的乙個點。將特徵從1000維壓縮到100維,就是子空間學習問題。

在模式識別中,可能絕大多數的維數約簡(降維,投影)演算法都算是子空間學習,如PCA, LDA, LPP, LLE等等。

子空間學習的主要問題,就是如何將特徵從高維空間壓縮到低維空間,需要保留什麼樣的資訊,設定什麼樣的準則,低維空間的特徵具有哪些特徵等問題。

機械人關節空間阻抗控制律是基於什麼樣的思想得到的? 為什麼跟機械人關節PD控制的公式一樣?

桂凱 首選,阻抗控制中是改變外界環境接觸力 比如使用者施加的力 與系統位移間的比例關係。假定一系統的傳遞函式如下,這裡的F是使用者施加的外力,F X就是使用者感覺到的阻抗。當M,B,K的值都較小時,系統的阻抗較小,使用者很容易推動整個系統。接下來,在系統裡加個電機,並設計PD控制器 此時,系統為了保...

拓撲學中為什麼採用這樣的子空間拓撲的定?

wonderwind 那樣子空間的開集就會變少,甚至在極端情況下變得只剩下Y本身了。比如說在R 3 給予通常意義下的拓撲構成拓撲空間 當中,R 2是它的乙個子集,但不是開集。考慮R 2作為子空間並給予R 3的誘導拓撲。如果按照教材中的定義,那麼R 2的誘導拓撲洽為R 2在通常意義下的拓撲,恰到好處。...

機器學習中的模型到底是指什麼?

林高遠 舉乙個最簡化的例子 樣本集 A 類 1,3,4,5 樣本集 B 類 7,8,9 分類目標 大於 x 為 A類 小於 x 類為 B類 具體 x 可以等於任意實數,但不一定都能達成 100 正確分類目標。x 0,無法正確分類 x 10,無法正確分類 x 8,部分正確分類 x 4.5,部分正確分類...