視覺 自然語言 語音等AI領域,有哪些深度學習暫時處理不好 或者不如傳統方法的方向?

時間 2021-05-12 05:28:07

1樓:多智百科

我對自然語言處理有一定的了解,我簡單介紹一下深度學習在自然語言處理中的應用,近幾年,深度學習在影象和語音處理領域已經取得顯著進展,但是在同屬人類認知範疇的自然語言處理任務中,研究還未取得重大突破。

深度學習在影象的語音領域取得了突出成果,但是在自然語言處理上還未取得重大突破,與語音和影象不同,語言是一種經過人類大腦產生並加工處理的符號系統,似乎模仿人腦結構的人工神經網路應該在自然語言處理領域擁有更多優勢,但實際情況並非如此。

深度學習通過建立深層神經網路,模擬人腦的機制進行解釋並分析學習影象、語音及文字等資料,是目前機器學習研究中的乙個熱點領域。傳統機器學習工作的有效性,很大程度上依賴於人工設計的資料表示和輸入特徵的有效性。

機器學習方法在這個過程中的作用僅僅是優化學習權重以便最終輸出最優的學習結,與傳統機器學習方法不同的是,深度學習試圖自動完成資料表示和特徵提取工作;並且深度學習更強調,通過學習過程提取出不同水平、不同維度的有效表示,以便提高不同抽象層次上對資料的解釋能力。從認知科學角度來看,這個思路與人類學習機理非常吻合。

深度學習在自然語言處理上儘管還未取得重大突破,但也在以下相關諸多領域,如詞性標註、句法分析、詞義學習、情感分析已經有了初步應用,並取得了較好的效果,在自然語言處理中,計算機處理語言,也是一定難點的,這就需要平時多多關注這方面的科譜知識,聽同事說多智時代這方面科譜做的不錯,有時間可以看看。

2樓:鹹口鍋包肉

拿NLP的中文分詞任務來說,傳統方法是CRF模型然後利用結構化感知機訓練模型引數,這個方法在相同預料的測試集裡面F1值可以高達95%以上,而且是好幾年前。工業界以及學術界通用的分詞工具一般都是這個模型,例如ICTCLAS、清華大學分詞工具、哈工大分詞工具、jieba分詞等。

深度學習的方法是DNN+CRF結構,相比來說速度就慢很多,而且分詞語料庫較小不一定能取得比較好的效果,初步測試只有86%左右的F1,當然如果預料充足模型夠複雜,最後的CRF模型設計好也會達到很高的F1,但是應用起來就沒用傳統方法的價效比高。

3樓:

語音分離語音降噪都還不行吧。。噪音很難清除乾淨,如果噪音是其他人的說話聲,那就更難了。。。網上CNN,dnn效果比較好的好像都是分類問題,感覺CNN做回歸問題比分類要難很多。。。。

4樓:Lapis-Hong

視覺、自然語言、語音這幾個方面深度學習基本都已超過傳統模型。大體上說,有區域性空間時間關係的資料可以說深度學習一騎絕塵,沒有區域性關係(特徵順序可以交換)的資料深度學習基本可以和傳統模型持平或略優。真正不如傳統模型的,我能想到的只有一種情況,就是資料集不夠大的時候。

5樓:YukiRain

遙感影象分類,曾經嘗試直接用深度網路,效果不好。

原因一,網路很擅長學習複雜的影象特徵,對特徵層層抽象,到最後得到乙個語義性很高的結果。但如果目標在影象裡面特別小,比如說只有個位數數量的畫素點來表示,網路就可能學不到任何東西。遙感影象就是典型的這型別的影象。

原因二,遙感影象尺寸太大,如果整體作為輸入,每層的參數量太大,而如果部分作為輸入,就是最早用深度做segmentation的方法,得到的效果只能說非常粗糙(有一些比賽裡也有用這種方法做的,他們的結果好壞基本取決於後處理步驟,而不是網路跑的效果)

6樓:W.chaolong

在大資料這片肥沃的土壤基礎上,至少就目前的趨勢來看,在視覺,自然語言,語音上都是用的深度學習框架了,未來肯定也基本上是深度學習的天下了,隨著最近英偉達又出了一款售價高達3000美元的GPU,計算能力又得到提公升,這對促進深度學習的發展又鋪下了基本的條件。

當然,傳統的分類方法還是很有用的,基本是深度學習提取特徵,然後傳統方法分類的形式。

7樓:王贇 Maigo

在說話人識別領域,probabilistic linear discriminant analysis(PLDA)面對神經網路依然堅挺。

人類如何去用自然語言描述自然語言的本質

海邊的小蘑菇 200年前的漢語無法表述原子的內部結構,原因並不是漢語的侷限性,而是認知的侷限性。語言是認知的延伸,因此人類肯定是能夠用自然語言去描述自然語言的本質的,只是我們無法認知什麼才是自然語言而已。 飛閱 1.腦接機 2.神經系統及腦功能運作 轉編譯 很可能在上述項相關科研找到接近的答案。有時...

為什麼相比於計算機視覺 cv ,自然語言處理 nlp 領域的發展要緩慢?

我覺得計算機視覺的進展也很緩慢 雖然已經能解決一些問題。自然語言處理的問題很複雜,複雜到計算機視覺的規模僅僅是自然語言處理的乙個子模組。計算機視覺早晚也會遇到自然語言處理一樣的瓶頸,而且必須依靠自然語言處理的進步來實現。 特里在納舍科技 語言在於上下文不一樣,會有不一樣的意思,比如 波 在訊號處理裡...

計算機視覺和自然語言處理,哪個更具有發展前景呢,還是各有千秋呢?

機智子 cv確實是perception為主,包括檢測 跟蹤 識別 重建等,主要是其資料比較原始,但是也在往cognition上前進,包括描述 關係等。nlp以cognition為主,處理的物件是人為了交流傳播的文字,主要任務是分析 對話 翻譯等,通常都是一些結構化的方法,近幾年一些直接處理更底層ch...