引數估計的最小方差和卡爾曼濾波的最小方差,是一回事麼

時間 2021-07-12 18:48:21

1樓:穿衫甲

試答一下,不當請指正.

不存在矛盾。

1) 不管是引數的最小方差估計,還是卡爾曼濾波中的狀態估計,觀測樣本(觀測量)都是隨機的.

2) 狀態可看做時變的引數。引數可看做時不變的狀態.

3) 卡爾曼濾波中的狀態是隨機的.

4) 在引數估計中,根據不同的方法,引數可以看做是隨機的,也可以看做是常數.

首先區分幾個概念,

最小均方估計(MMSE)

代價函式是最小均方誤差, 以最小化均方誤差為優化準則.

最大似然估計(MLE)

代價函式是似然概率函式, 以最大化似然概率函式為優化準則.

線性最小均方估計(LMMSE)

假設觀測與未知量之間是線性關係. 代價函式是最小均方誤差, 以最小化均方誤差為優化準則.

最大後驗估計(MAP)

代價函式是聯合概率密度函式. 以最小化聯合概率密度函式為優化準則.

卡爾曼濾波可以由LMMSE、線性模型下的MMSE或者MAP推導出來.

引數估計則可以選擇上述任一種方法,不過一般MLE最普遍.

現在用 表示狀態或者引數, 表示觀測值, 對於MSE類方法, 其代價函式的一般形式為

利用Bayes' 法則可以重寫為

那麼近似成離散的形式就是

對於卡爾曼濾波這樣乙個乙個樣本處理的序貫估計, 樣本的統計性通過逐步迭代的更新來體現.

對於最大似然方法, 其代價函式一般形式為

這裡樣本的統計性在批處理過程中直接體現.

2樓:mooncake

我認為你第二段有錯誤,卡爾曼濾波的狀態向量不是隨機的,看過推導你就知道,卡爾曼濾波是求解濾波增益K,這個K使狀態向量的方差最小,換句話說狀態向量的方差由演算法控制,並不隨機。

最小二乘法我不知道你說的是哪種,我估計你說的是加權最小二乘法估計,他的原理是將觀測向量的方差作為觀測向量加權的依據,最終使狀態向量的方差最小,也同樣並不隨機。

這兩個方法的觀測向量的方差都是固定的,最初就確定下來,服從某分布的乙個隨機量(是不是必須要正態分佈記不住了) 。最終要求乙個最小方差的估計量。

可以看一下秦永元老師的卡爾曼濾波與組合導航原理,西工大出版社,裡面把各個方法都說了一遍,裡頭有一點錯誤,自己理解著看唄。

什麼是引數估計,什麼是半引數估計,什麼是非引數估計?

Iridescence 在進行對隨機變數分布的估計 estimation of distributions 時,分為三種辦法 引數估計 非引數估計與半引數估計 引數估計 在已知分布的形狀情況下可使用 或是在假設的某種分布下 一般可採用最大似然估計方法來計算。這裡對分布的假設可分為單變數分布 多變數分...

什麼是引數估計方差

寅時猛抽風 概率論的已知條件是分布,即告訴你分布的情況下,讓你做概率計算。統計的已知條件是樣本,分布不知道,或者分布知道引數不知道。方差的估計,就是說給你樣本,你去估計去分布的方差是多。具體的話,貌似要用到卡方分布,這個裡面又是一堆東西,你要理解什麼是統計量,然後用統計量去計算,計算過程巴拉巴拉的一...

OLS方法對引數的方差的估計有什麼意義,或者說有什麼用?

引數方差應該指的是標準差 standard error?如果是的話,這是統計推斷裡面的一般概念了。比如你分析某城市裡面的家庭收入是多少元和他們擁有家用車的數量之間的關係,如果沒有任何限制,你肯定想把這城市裡的每個家庭都問一遍,你家掙多少錢,有幾輛車,然後看是不是有關係。但是,每個家庭都問一遍基本是m...