正定實對稱矩陣特徵值問題?

時間 2021-06-02 09:12:51

1樓:

"幾位大神給出的答案都是趨於無窮,但是從直觀上來說,重複乙個樣本無窮次並不能改良估計?怎麼解"

無窮次重複同乙個樣本確實不能改良估計。但是你這裡不是那種情況。

這裡,n->無窮帶來改良估計是需要條件的,最簡單的條件是,樣本是i.i.d.

也就是說,這裡n->無窮的實際意義是,整個樣本只有一種sample,那當然估計無限準啦 (當然實際上需要Full rank, 所以只有一種不太行,有幾種,但是每種都有無限個就好)

你已經有乙個data set,然後你把其中乙個data point重複無限多遍,只會使估計惡化。

2樓:張衝衝

補充下冰冰的答案(雖然我覺得沒什麼好補充的(`)):

定理:如果S是實對稱矩陣,則最小的特徵值等於的最小值.也就是在球上,的最小值.

(證明的話可以參考Rayleigh商)

∵A,B是實對稱正定矩陣

∴易知A,B的特徵值均為正實數

設A的最小特徵值為,B的最小特徵值是,A+nB的最小特徵值是時,∴∴當時,

為何矩陣特徵值乘積等於矩陣行列式值?

瑟胖子 因為 det AB det A det B det BA 如果A是乙個矩陣,C是特徵向量矩陣,是斜對角為特徵值的矩陣,則 det A det det det det det 是斜對角為特徵值的矩陣,容易求得det A det Felix 特徵值是某個矩陣對一些正交的向量 特徵向量,長度為1 ...

為什麼要研究矩陣的特徵值和特徵向量?

特徵分解是矩陣代數裡面非常重要的一種分解方法。當然脫離應用就有點說不明白。大學裡很多教書的也只是照本宣科,所以導致大家都會算特徵值,特徵向量。但是還是不太明白這些到底是個啥?後來接觸機器學習演算法才算有一些了解。特徵分解應該說是一種簡化線性演算法。比如Ax lambda x,A是矩陣,矩陣在任意應用...

設A,B,C均為n階半正定實對稱矩陣,使得ABC是對稱陣 證明 ABC也是半正定陣 請問該怎麼證明?

gtw 我是用逼近的辦法去做的,這樣可以把某乙個矩陣變成正定的。寫的很長,但大體思路是把A化成正定的,AB就可以對角化,然後把ABC CBA轉化為某兩個半正定矩陣交換,分塊的處理一下,得到ABC半正定。我們用A A tC t 0 代替A。若A和C解空間的交集W是非平凡的,ABC W 0,因此可以用原...