gmm和dnn的關係?

時間 2021-06-07 22:27:00

1樓:qqfig

gmm屬於比較傳統一點的概率模型(高斯混合曲線的匹配程度),他結合hmm可以很好的實現語音特徵靜動態匹配;而dnn資料模型資料關係過濾模型,對區域性和全域性關係特徵結合hmm也可以實現語音識別匹配,而gmm概率區域性性比hmm強,誤差和魯棒性差,所以識別在高精度階段效果差;而dnn在全域性性識別上空間更大,但是需要基於一定的資料標記才能體現關係建模,借助gmm確定邊界也是特點需要(當然也可以不採用gmm確定邊界),通俗的講,dnn更像小孩,需要引導;而gmm卻是流浪貓。

2樓:Yan

gmm其實可以看做一種特殊的只有乙個隱含層的radius basis function network。比起現在的DNN,深度的RBF 網路的訓練很困難。

3樓:東周

高斯混合GMM,通過多維空間的非線性(高斯正太核),以及權值,理論上可以模擬多維空間的任意非線性,優點是權值少,乙個高斯核,乙個輸出維度的向量為權值。可以通過增減高斯核,來最經濟的逼緊目標非線性。近似於人腦的感應區。

缺點:怎麼訓練?尤其是對回歸問題。

如何調節高斯核的數量。你要是研究出來了,你比Hinton的成就還大。Hinton剛提出膠囊網路,就是用非線性加權(ReLU)

DNN利用了非線性啟用函式ReLU的優良性質,就是殘差保持,使非常深度的神經網路來逼緊任何維度非線性。但是缺陷是很多非線性相對被處理的問題,是冗餘的,導致計算和資源的浪費,以至於無法普及到現在的生活中。

在深度學習中,DNN分類器和MLP分類器有區別嗎?

JohnJim 只看神經元 感知機 類似的問題還有感知機與線性回歸,SVM的區別,感知機包含乙個輸入輸出層,再包含乙個隱層就是MLP了,比較 純淨 的MLP基本沒有學習率優化,引數初始化以及正則化優化方法。MLP可以說是DNN的前身,原理上沒有多大區別,只不過隱層變多了,優化方法豐富了,而廣義概念的...

假設關係和條件關係的區別

王泓硯 可以把從屬複句關係表示成謂詞邏輯關係 P Q P為真 是 Q為真 的前提條件。P為真 有很多種意識形態。可以是已經發生的事實 昨天下雨了,他沒來上學 也可以是一種主觀意念 如果昨天下雨,他就不會上學 從屬複句關係反映言語者邏輯思維判斷,因此 P為真 和 Q為真 都是言語者的主觀意識形態。至於...

意識和物質的關係?

淚不空 意識當然也是物質啦!只不過只是其大小的級別不同啦!屬於微量元素的啦!小到人只能通過感覺感知 而只是 視而不見 看不見的啦!人有三魂七魄,意識僅屬於 三魂 的啦!還有 植物的意識是 單核量子結構 人體意識是高階的複核糾纏量子結構的啦! 奶茶去冰七分甜 意識的客觀存在性,我們不能清晰的獲知,但是...