如果特徵向量表示線性代換中不變的向量,那麼特徵方程又表示什麼意義?

時間 2021-06-01 21:23:14

1樓:榮少

有特徵值,就一定有特徵向量。特徵方程就是特徵值滿足的方程,這個方程|A-λΕ|=0在複數域內一定有解(代數基本定理),這個解就是特徵值,將這個值代 λE-A =0,這線性方程組一定有非零解,這個解就是對應這個特徵值的特性向量

具體看李尚志線性代數

2樓:天下無難課

簡單答:特徵方程的意義不在於要用它表示什麼,而在於要靠它把能使Ax=λx成立的λ值求出來。

有一點先要搞清楚,乙個特徵向量是相對乙個線性變換(矩陣)講的,乙個線性變換(矩陣)有沒有特徵向量是不一定的。到底有沒有?咋判斷?

就要看從上個式子裡推演得到的特徵方程|A-λI|=0能否求得λ值了。

為啥特徵方程要=0?因為從Ax=λx可以推出

|A-λI|x=0,而我們是在假定有特徵向量的前提下來求λ值的,x當然不能為0,這就只能在假設特徵方程為零的條件下找λ了。

如果能從這個特徵方程中求得λ值,則將它帶入Ax=λx中,把滿足這個等式的特徵向量x求出來。

有一點可能會認識模糊的:在Ax=λx裡,並不是要找到乙個λ,然後它能使乙個一般化的向量x都能滿足這個等式。不是的,是只有特別的乙個或幾個向量才能滿足等式的,我們靠特徵方程求出λ值只是找出它的第一步,然後還要把λ帶入再算一遍,才能把特徵向量找出來。

在乙個線性變換下,大部分向量是無論如何做不到Ax=λx的。能做的x不是乙個一般化的x,是乙個特定的x,它叫特徵向量來的。

當然,有時老師布置的作業不需要你找到這個特徵向量,只需要你判斷乙個矩陣有沒特徵向量,那你就只需要按特徵方程求λ值,求的出,這個矩陣就有特徵向量,求不出,就沒有。

3樓:宇宙大陽光

上面已經回答很好了。特徵向量不是不變的向量,是線性變換作用上面效果等價於乙個伸縮效果的東西。特徵方程是在具體座標下怎麼求這個特徵向量的方法

如何用向量(a,b,c)和(x,y,z)表示向量(ax,by,cz)?

趙樸凝 這是不可能的。對於你舉的例子,叉乘後的向量在任何直角座標系下結果都是一樣的。而計算的 ax,by,cz 向量就會隨座標系的變化而有所不同,例如,在某個座標系下 a,b,c 0,0,1 x,y,z 1,0,0 那麼 ax,by,cz 0,0,0 是乙個零向量。但是你換乙個座標系,做出的結果就不...

為什麼要研究矩陣的特徵值和特徵向量?

特徵分解是矩陣代數裡面非常重要的一種分解方法。當然脫離應用就有點說不明白。大學裡很多教書的也只是照本宣科,所以導致大家都會算特徵值,特徵向量。但是還是不太明白這些到底是個啥?後來接觸機器學習演算法才算有一些了解。特徵分解應該說是一種簡化線性演算法。比如Ax lambda x,A是矩陣,矩陣在任意應用...

如何用幾何方法算特徵值和特徵向量?

Alucart 我對幾何方法的理解是 不依靠特徵多項式進行計算的方法。稍微改一下題裡的符號 用 代表所有元素都是1的矩陣,也就是題中的那個 則原題中的矩陣可視作 首先,注意到 的秩為1,則由零度 秩定理,那麼任取非零向量 都有 因此,2是乙個特徵值,且特徵子空間 進一步地,可證明如果 那麼 故 也就...