高斯馬爾科夫假定可以得到樣本回歸的最優情況線性無偏引數估計,幾時會出現不可靠,才要加正態性分布?

時間 2021-06-19 09:30:49

1樓:吃瓜的觀望者

不需要加入正態分佈假設,只需要球形擾動項即可,樓上老哥回答的非常好了,我稍微補充一點。

BLUE這個概念是來形容估計量優越性的,但是回顧一下數理統計,我們在數理統計中衡量無偏估計量優越性時往往說這個估計量是UMVUE,UMVUE是最優的,而BLUE是乙個弱於UMVUE的概念。

擾動項的真實分布,我們往往是不知道的,而UMVUE這樣的概念是依賴於原分布族,可能保持球形擾動項的前提下,我們的OLS估計量還是BLUE,但是如果分布不是多元正態,我們的OLS估計量就不是UMVUE

正態分佈假設下,不僅僅可以做後續的統計推斷。還有乙個值得注意的地點就是,OLS估計量和MLE估計量此時是相同的,此時OLS估計量從BLUE評價視角下它最優,從引數分布統計推斷的角度它也是最優的,即正態分佈情況下,OLS估計量的優越性比BLUE所說明的,更上了一層樓

當然真實模型的擾動項的分布很多時候看起來不是那麼符合某種引數分布族,BLUE在初級計量裡面就會比數理統計所學的那些度量統計量好壞的指標更適用一些。

2樓:分析101

先說答案,Gauss-Markov Theorem中證明最優線性無偏估計,不需要擾動項的正態分佈假設。加入正態分佈假設,是為了得到後面的引數估計值的分布,從而可以方便地進行假設檢驗。

不妨具體地看一看最優線性無偏估計的證明過程。

已知為OLS估計,假設有另乙個線性無偏估計,證明的目標是的方差更小,也即為半正定矩陣。

球形擾動假設可知

定義,有

而無偏,所以有

不管真正的取什麼值,上式必須始終成立,因此必有,代回到的表示式中,有現在可以算了:

因此,又因為必為半正定矩陣,因此也必為半正定矩陣。

從證明過程可以看到,對於擾動項,無需假設它服從正態分佈,而只需假設球形擾動即可。

高斯馬爾科夫假設中零均值假定與解釋變數和隨機誤差項不相關假定可否互相推倒?

郭小天 零均值假設可以推出解釋變數和隨機誤差項不相關,但解釋變數和隨機誤差項不相關並不能推出零均值。零均值是解釋變數和隨機誤差項不相關的充分不必要條件。我們就用最簡單的一元線性回歸來解釋 現有 個樣本點 線性回歸模型寫成以下形式 其中零均值假設更準確的說法 當然如果上面的條件零均值成立的話,非條件的...

如何通俗地解釋馬爾科夫鏈

韋捷 馬爾可夫鏈的定義其實比較簡單,它假設某一時刻狀態轉移的概率只依賴於這個狀態的前乙個狀態。這種情況下,我們只需要求出任意兩個狀態的轉移概率,我們的馬爾可夫鏈模型就出來了。光看上面的定義看不懂的話也正常,這裡面有幾個是概念對理解這個定義是比較關鍵的,分別是狀態 狀態轉移和狀態轉移的概率,怎麼理解它...

鞅過程與馬爾科夫過程是什麼關係?

我來補充乙個通過馬爾科夫過程構造鞅過程的例子吧。給定乙個連續狀態馬爾科夫鏈 Markov Chain with Continuous State Space 我們定義轉移函式 測度論中稱為隨機核 為非零實數,如果乙個可測函式 滿足 並且 我們就稱函式 是相應於特徵值 的乙個特徵函式 線性代數中的特徵...