熱線電話:13121318867

登錄
首頁大數據時代一文帶你快速了解矩陣中特征值與特征向量那些事兒
一文帶你快速了解矩陣中特征值與特征向量那些事兒
2020-08-03
收藏

在線性代數中,我們都學過特征值與特征向量,但是對于這兩者的意義以及應用卻理解得不是那么深刻。機器學習中,我們也經常會遇到特征值與特征向量這兩個概念,小編今天就給大家具體分享一下這兩者的基本知識。

一、特征值和特征向量定義

設A為n階方陣,如果數λ和n為非零列向量x,并使得Ax=λx成立,那么就把λ叫做方陣A的一個特征值,x就是方陣A的對應于特征值λ的一個特征向量。

需要注意:

1.A是方陣。(對于非方陣來說,是不存在特征值的,但是會存在條件數。)

2.特征向量x為非零列向量。

二、特征值和特征向量幾何意義

如果把矩陣當做是運動,那么對于運動來說,最重要就是速度和方向了。

特征值表示運動的速度

特征向量表示運動的方向


接下來我們調整向量v的方向,使其看起來特殊一點

特征向量在一個矩陣的作用下作伸縮運動,特征值決定了伸縮的幅度。如果特征值大于1.那么所有屬于此特征值的特征向量變長;當特征值大于0小于1時,那么特征向量就會縮短;當特征值小于0.這時特征向量縮過了界,就會反方向到達原點。

三、特征值、特征向量的性質

1.只有方陣才有特征值和特征向量 。因為總有特征多項式(特征方程),所以方陣總有特征值,但是并不是所有方陣都有實數特征

2.實方陣一定有實數特征

3.不同特征值對應的特征向量是線性無關的

4.對于實對稱矩陣或埃爾米特矩陣來說,不同特征值對應的特征向量必定正交(相互垂直)

四、矩陣對角化

矩陣對角化的充要條件為:n階矩陣有n個線性無關的特征向量。

推斷出:如果n階方陣A有n個互不相同的特征值,那么方陣A可對角化。

并且:

對角陣的主對角元素為A的特征

可逆矩陣P由A的n個線性無關的特征向量作列向量構成。

五、python求解特征值和特征向量示例


>>> a=np.array([[1,2,3],[3,2,5],[1,10,8]])
>>> e,q=np.linalg.eig(a)
>>> e
array([ 13.50864036,  -0.42667365,  -2.0819667 ])
>>> q
array([[-0.27543318, -0.6534998 , -0.23748816],
       [-0.44255955, -0.44847532, -0.67779488],
       [-0.85339183,  0.60976053,  0.69584012]])
>>> 
>>> E=np.diag(e) # 對角陣
>>> E
array([[ 13.50864036,   0.        ,   0.        ],
       [  0.        ,  -0.42667365,   0.        ],
       [  0.        ,   0.        ,  -2.0819667 ]])


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢