特徵工程在深度學習演算法設計中的地位是什麼?

時間 2021-06-20 08:49:42

1樓:dragonfly

我認為特徵工程在其中有兩種體現。一種體現在模型結構的設計,很多模型結構就是為了建模某些特徵,像DIN、CAN等;另一種體現在模型的輸入,受限於模型表達能力,有些特徵可能難以建模,這時候我們還是手工產出特徵輸入模型。

深度學習時代提效三板斧:加特徵、擴資料、改結構。在很多成熟的業務場景,改結構、擴資料帶來的收益越來越少,又回到了加特徵上去了。這裡的加特徵就是手工產特徵。

2樓:wang天語

resnet mobilefacenet panet dbnet這些不都是搞特徵工程做出來的,淺層深層特徵復用不是特徵工程?detr不更是利用通道間特徵關聯性做出來的模型...就算是目標檢測的各種初始框不也是特徵工程做出來的...

fasttext的ngram配合hash提向量做不也是特徵工程。樓上你們真的有好好在做在體會這行嗎?好的工作有幾個沒有想方設法提取特徵呢?

只是特徵提取的方式發生了變化。

3樓:buaawht

不是有句話叫資料決定演算法上限嘛,深度學習在其他領域的應用我不敢下結論,但在搜推廣領域,特徵工程絕對是演算法基石,複雜的模型結構不過是錦上添花而已。

4樓:

機器學習的特徵工程和我現在的理解是否一致我不太清楚。

就自然語言處理方面來說,引入分詞,詞性,最大實體長度等等,還有一些啟發式的方法,我理解都可以算是特徵工程。

以前用crfpp來進行分詞和實體識別,需要設計特徵模版,類似n-gram的語法。對應到cnn裡面,就變成kernel-size,dialation,stride這幾個引數。

所以我認為,特徵工程也是存在於深度學習中的,可能不像機器學習中那麼複雜。而且在深度學習中,特徵工程更多地和網路結合在一起(例如一些啟發式方法、前面的cnn例子),而不是只在輸入資料上進行處理。

5樓:真中合歡

特徵工程在深度學習方面的作用並不是很大。深度學習的目的就是讓模型學習特徵的潛在關係,基本上只要把所有特徵一股腦送進模型就可以了,為了優化模型效果,可以做適當處理,但是重點還是放在模型上。

特徵工程主要用在機器學習方面,比如lr,xgboost,或者少數線性-深度混合模型裡。

6樓:Rock-Relu

深度學習是一種正規化革命,而非是傳統機器學習的順序發展。它其中乙個作用就是能自己學習資料裡的特徵,畢竟人可提取的特徵有限。

人工提取特徵,你可以把它看成是一次人腦的autoencoder。機器也許更合適。

但深度學習不是不需要人,人的重心在資料質量,只有好的資料質量才能練出好的模型。

7樓:鄭多比

特徵工程是機器學習演算法中重要且必不可少的步驟,但是在深度學習演算法中並不是必需的,甚至可以說現在大多數深度學習演算法已經省略掉這一步驟,直接就是由輸入資料到模型輸出結果的端到端的解決問題,去掉這一需要人工設計且繁瑣的步驟。

深度學習中的優化演算法 NAdam 和 Nesterov Adam 有區別麼 區別在哪?

溪亭日暮 Ruder,S.2016 An overview of gradient descent optimization algorithms.arXiv preprint arXiv 1609.04747.Dozat,T.2016 Incorporating nesterov momentum...

深度學習在特徵選擇方面如何應用?

akon 基本的搜尋策略按照特徵子集的形成過程可分為以下3種 全域性最優 隨機搜尋和啟發式搜尋.乙個具體的搜尋演算法會採用兩種或多種基本搜尋策略,例如遺傳演算法是一種隨機搜尋演算法,同時也是一種啟發式搜尋演算法.完全搜尋分為窮舉搜尋 Exhaustive 與非窮舉搜尋 Non Exhaustive ...

機器學習(包括但不限於深度學習)和優化演算法中有哪些 fundamental trade off?

Ning Lee 最基本的兩個 exploration exploitation trade off 探索與守成 計算複雜度 vs 模型效能 舉例來說 增強學習中的典型問題,是探索新領域還是在舊的領域裡面取最好的 多臂賭博機問題 LSTM中sample word的數量,顯然考慮更多的word能提公升...