為什麼目前的深度學習 Deep Learning 只是比較成功運用到影象 語音上?

時間 2021-05-06 14:31:42

1樓:尋常巷陌

在振動訊號上也是比較成功的。

深度殘差收縮網路就能夠很好地從含噪振動資料中提取有用特徵,用於機械故障診斷。

其實,在很大程度上,問題在於大部分企業不公開裝置監測資料。

Minghang Zhao, Shisheng Zhong, Xuyun Fu, Baoping Tang, and Michael Pecht, Deep residual shrinkage networks for fault diagnosis, IEEE Transactions on Industrial Informatics, 2020, 16(7): 4681-4690.

2樓:

關鍵是模型是根據資料分布的流型假設設計的(見《Deep Learning》第5.11.3節),而且流型假設中還需要有意義的概率分布比較集中,這就指定了很少的資料有意義(基本上都是要對人類有意義的資料,由人類來解讀的那些,這個意思變一下說法就是「人腦能1秒內給出答案的」那些,為什麼是1秒,因為現在網路的發展也就相當於人腦對應功能部分1秒的計算力)。

而標籤資料也是很重要的一點,影象太容易標籤了,語音次之,而文字,到現在大家還沒有通用的方法對一段文字進行達標,沒辦法用一套通用的框架描繪天下任意一段有意義的文字的意義,並轉化為數字。

3樓:Xiaolong Wang

根本原因是因為labeled data

影象的話, 主要是有 Imagenet dataset 大大推動了deep learning的發展.

4樓:

影象和語音受關注比較廣泛,所以你知道。比如我用深度學習搞心電的病態識別,社會大眾就不會關注到嘛。

另外一方面,影象和語音有大量的資料。假設兩個人能力完全一樣,乙個去影象語音那邊,乙個來我心電這邊,影象語音那邊出來的成績一定是高於這邊的。

馬太效應很明顯,影象語音因為資料多,把大神們都引去率先開拓這些領域,然後資本就更加青睞,工程力量運營力量等等也會跟著錢走,所以就會把各種好條件都湊到一起,成績比其它領域好,是自然的

為什麼要用深度學習deep learning做自然語言處理NLP?

已登出 順便一說什麼資訊檢索和圖表式學習都是可以用深度學習的那些才是真的離散 大部分這種離散資料最後都有embedding的過程embedding的方式很多有用矩陣分解的 也有用word2vec node2vec還有很多很多blabla2vec的方法 之後再deeplearning 表示學習了解一下...

目前有什麼比較好的深度學習的研究方向嗎?

雲程萬里 經典訊號分析 深度學習 一系列新的方法 例如,非區域性均值降噪 深度學習 非區域性神經網路 Non local Neural Networks 1 軟閾值函式 深度學習 深度殘差收縮網路 Deep Residual Shrinkage Networks 2 模型inference的自動化排...

深度學習目前主要有哪些研究方向

張帥Daven 深度學習可以應用在推薦系統當中,而且可以取得很不錯的效果。Deep Learning based Recommender System A Survey and New Perspectives 姜兵 可以研究高速電路設計,晶元架構,還有資訊方向的如 資訊對抗等等!其他我不了解的也太...