請教關於雅可比矩陣特徵值的問題,為什麼說是虛數,然後導致不穩定?

時間 2021-05-31 21:36:51

1樓:

central difference的不穩定性如其他答案給出的,可以用von Nuemann stability analysis推導。如果再簡單直觀的一點,可以考慮乙個一維的邊界問題。如果使用central difference離散格點 i,方法只用了i-1, i+1的資訊,也就是說僅使用了奇數或偶數點上的值。

這就出現了odd-even decoupling,乙個問題被拆解成了兩個問題,其中乙個問題實際上沒有被邊界條件限制,因此出現了oscillation。

Projection method是從Helmholtz decomposition來的,定理給出:任何向量都可以分解為divergence-free和curl-free兩部分。在流體力學中,對動量方程使用projection的物理意義,簡單講就是分離壓強對速度變化的貢獻和viscous effect對速度變化的貢獻。

2樓:

記得自動控制系統中應該提到過,如果系統狀態矩陣的特徵根為純虛數,也就是說,有一對極點位於復平面的虛軸上(不妨記為 ±jω),那麼系統是臨界穩定的,此時系統的衝擊響應中必定含有角頻率為 ω 的穩態正弦量。 一般來說,在實際電路系統中,由於電阻的存在,可能會將這一對極點拉向復平面的左半平面,也就是衰減分量,即系統是穩定的。 但在某些情況下,如果由於運算放大器的增益過大或者其他的某些原因,導致系統中出現了負阻尼,那麼這對極點會被拉到右側,也就意味著系統不穩定。

我只知道這麼多了,希望可以幫到題主。

正定實對稱矩陣特徵值問題?

幾位大神給出的答案都是趨於無窮,但是從直觀上來說,重複乙個樣本無窮次並不能改良估計?怎麼解 無窮次重複同乙個樣本確實不能改良估計。但是你這裡不是那種情況。這裡,n 無窮帶來改良估計是需要條件的,最簡單的條件是,樣本是i.i.d.也就是說,這裡n 無窮的實際意義是,整個樣本只有一種sample,那當然...

為什麼要研究矩陣的特徵值和特徵向量?

特徵分解是矩陣代數裡面非常重要的一種分解方法。當然脫離應用就有點說不明白。大學裡很多教書的也只是照本宣科,所以導致大家都會算特徵值,特徵向量。但是還是不太明白這些到底是個啥?後來接觸機器學習演算法才算有一些了解。特徵分解應該說是一種簡化線性演算法。比如Ax lambda x,A是矩陣,矩陣在任意應用...

如何理解 乙個矩陣的逆矩陣的特徵值等於這個矩陣的特徵值的倒數 ?

sixue 矩陣是什麼?矩陣就是線性變換。什麼是線性變換?就是旋轉,伸縮。注意,這裡的旋轉和伸縮是兩個座標軸 先以二維空間為例 分別操作的,所以我們可以把 剪下 也劃歸到這個體系裡。即,正如伸縮分為各向同性伸縮和各向異性伸縮 另外反射也可以當成伸縮 剪下也可以被當成各向異性旋轉 只旋轉某些座標軸 這...