為什麼矩陣要分列向量和行向量?

時間 2021-06-09 23:52:22

1樓:tsuka okami

為什麼要分行列向量?我的理解是,如果只研究向量,例如,對兩個向量間的加減以及向量的數值的乘積,或者向量的點乘叉乘等,無論行向量,還是列向量,都可以,僅僅是寫法不同。

如果引入了矩陣,那麼 1xn 和 nx1 的矩陣雖然可看作行列向量,但本質上還是矩陣,所以它們是不同的,size 不同,而矩陣的乘法要求維度匹配,否則沒有意義。至於為何一般都使用列向量,那是因為一開始研究線性方程組時,可以寫成 的形式,即未知數在右,係數在左這樣乙個習慣。當然,矩陣方法只是乙個工具,它把行列向量都看作矩陣,進行各種計算,只是我們將 1xn 和 nx1 的矩陣看作行列向量,並由我們賦予它們實際所代表的含義,例如為了方便,常將多維量用列向量表示,將梯度向量用行向量表示。

你要反過來,也是可以的,在矩陣方法看來,就是乙個轉置。

但是矩陣內部,每一行為行向量,每一列為列向量,此時可以將它們看作單純的向量來研究了,例如行向量組的線性相關性,本質上是研究向量之間的線性相關性,寫成一行就稱行向量,寫成一列就稱列向量。

以上是個人理解,官方的定義或者說明,我也說不上來,-_-!。

矩陣的嚴格定義是什麼?行向量與列向量通過矩陣來定義真的合理嗎?

汪汪 你說反了,不是列向量和行向量用矩陣定義,恰恰相反,我們學的矩陣用列向量和和行向量定義。事實上,矩陣可以用任意適合的方式定義。 懶得打公式,湊合看一下吧。矩陣可以定義為元素與序偶的集合的集合。也就是說矩陣A 1 i m,1 j n 序偶 i,j 怎麼定義?事實上 i,j i 就醬 把m x n ...

為什麼要研究矩陣的特徵值和特徵向量?

特徵分解是矩陣代數裡面非常重要的一種分解方法。當然脫離應用就有點說不明白。大學裡很多教書的也只是照本宣科,所以導致大家都會算特徵值,特徵向量。但是還是不太明白這些到底是個啥?後來接觸機器學習演算法才算有一些了解。特徵分解應該說是一種簡化線性演算法。比如Ax lambda x,A是矩陣,矩陣在任意應用...

A的行向量組和列向量組有什麼區別?

kikuchanj 對其他答案學習了一番,大概有個理解,如下 其實這個b也就是乙個列向量,要保證方程組有解,即要滿足r A r A b 那麼可理解為這個矩陣A在加一列b之後,秩不能變大,換句話來說,如果A滿秩,每一行都線性無關 各行之間一頓線性組合之後也消不掉某一行 即A的每列都是長度為m的這麼乙個...