為什麼輸入訊號卷積衝激響應就能得到輸出訊號?

時間 2021-05-14 18:26:19

1樓:西早

物理直觀解釋,模擬成拿水管子往池塘放水,要求得出放水過程中水波拍打岸邊的變化。輸入訊號:水管子的水量(連續函式,每時刻的數值表示該時刻放入幾滴水),單位衝擊函式:

一滴水,衝激響應:風平浪靜時滴入一滴水引起的池塘拍打岸邊的變化(隨時間變化的函式),輸出:放水過程中水波拍打岸邊的過程。

怎麼理解卷積,代表了瞬時行為的持續性後果,每時刻拍打岸邊的浪都是之前所有狀態輸入水滴引起波紋的疊加;(函式函式的卷積本身就有點雙重積分的意思,比乘積來說多了一層時間積分)

乘積:瞬時行為的瞬時後果(因為轉換為頻域所以不必考慮時間軸的影響)

2樓:八卦掌

《訊號與系統》中有詳細講解,我想敘述一遍 。

對於線性時不變系統,輸入訊號 持續輸入的過程,可以看成是每一時刻輸入乙個幅值為 的瞬時脈衝,輸入的每乙個瞬時脈衝,都會產生乙個對應的響應。每一時刻,都向系統輸入乙個瞬時脈衝,對應地,每一時刻都產生乙個瞬時脈衝響應。系統的總響應,即為無限個瞬時脈衝響應疊加。

為了套用微積分定理,易於解析,常把訊號分解的表示式湊成積分形式,乙個常規的積分表示式 包含被積函式 和積分變數的微分 。其中 為無窮小,於我們的目的是多餘的,為了構成積分形式,必須包含 ,人們只能在乘乙個 的同時再乘乙個 ,乘的用於構成積分形式,乘的 是附加產物,積分是無限求和,相加的每一項應為 乘以幅值為1的 時刻脈動的瞬時脈衝 ,把 和放進去, 和 合在一起為 時刻脈動的衝激訊號 。由於 的參與,脈衝幅值由1變為無窮大,出現衝激訊號。

這是樓主問題中衝激響應的前身。輸入訊號分解後的每一項的通式為 , 即為時刻的瞬時輸入脈衝。若 的響應為 ,在時不變系統中, 的響應對應為 ;若系統又是線性系統, 的響應為 ,把線性系統的各個瞬時脈衝響應疊加起來為 ,即為卷積式,並且出現了衝激響應訊號 。

分解輸入訊號時,用的是瞬時幅值為1的脈衝訊號,到後來為了湊成積分形式,而演化成瞬時幅值為無窮大的衝激訊號,同時引入衝激響應,把乙個看似毫無關聯的衝激響應帶到我們的視野中。

這就是輸入訊號卷積衝激響應就得到輸出訊號的大體原因。

結論乍一看確實有點不可思議,這就是訊號分解的特點,變更了乙個觀察世界的角度,會產生不一樣的效果。也許這就是角度的魔力。同樣的問題,乙個角度很困難,另乙個角度也許很容易。

如有疏漏,希望指正~

3樓:

介個問題讓我想起了離散域裡系統識別(System Identification)的經典問題,那就是通過輸入、輸出訊號來估計系統衝激響應的序列 來辨識系統。z域的系統函式是從時域的衝激響應經過z變換來的,即 。

這正好說明了,系統的時域衝激響應函式包含了系統本身的屬性資訊,我們在離散域的系統識別中可以利用它。一般來講,在訊號處理問題中,系統函式為有限衝激響應形式,在控制問題中則為傳遞函式形式。

假設連續域,當然離散域也大同小異。

衝激函式是滿足狄拉克函式的性質的,也就是 ,且 當且僅當時成立,其餘但凡不是0的地方,該函式都是沒有值的。

系統對於該函式的衝激響應為 ,這是乙個包含了系統本身的屬性資訊的函式。

所以,當輸入訊號 卷積描述系統本身性質的函式響應 時,就可以得到輸出訊號 啦。

看上去是那麼自然的事情,可以想象成你在做黑盒測試。而系統的衝激響應函式描述了它本身的性質,這個就是黑盒內部的情況描述。

一般來說,很多系統的衝激響應都是在時域裡的起始階段有乙個峰,接著幅值逐漸下降。

3口為訊號輸入口,為什麼不將訊號直接送入被控制物件,而需要通過電壓跟隨器呢?還有為什麼兩級電壓跟隨?

提高輸入阻抗 高阻輸入。因為不知道3口的前級驅動能力情況,所以慣例按驅動能力差 不能拉負載處理,所以在這裡使用電壓跟隨器的形式,使得3口的輸入阻抗成為高阻,不影響前級驅動。對於黑盒系統的輸入腳,輸入阻抗是很重要的引數,在做系統的時候要考慮前級的驅動能力。至於為什麼兩級,最大可能是認為需要兩級緩衝才能...

在卷積神經網路中卷積核為什麼都是方形的?

智星雲服務 Why convolutions always use odd numbers as filter size 卷積運算,簡單地說,是兩個矩陣的元素乘積的組合。只要這兩個矩陣在維度上是一致的,就不應該有問題,所以我可以理解你的查詢背後的動機。然而,卷積的意圖是根據濾波器或核心對源資料矩陣 ...

特徵視覺化中,反卷積神經網路的卷積核為什麼可以是原卷積核的轉置?

打滾敬神 結論 使用轉置卷積,運算後,能夠將被啟用的神經元對應的感受野的原始位置的灰度值設為非零值 對於不能被啟用的神經元對應的感受野對應位置的灰度設為0 可能不嚴謹,只是對應分量丟失,見下面推導 引用縱橫同學的Setting 略有區別,我用的是列向量 縱橫 CNN視覺化從入門到放棄 懶得打late...