熱線電話:13121318867

登錄
首頁大數據時代特征值和特征向量的詳細計算及幾何意義
特征值和特征向量的詳細計算及幾何意義
2020-07-08
收藏

矩陣特征值與特征向量在機器學習算法中經常會用到,每次出現都有著其獨特的意義,如果不能深入理解特征值和特征向量兩個概念,對我們機器學習的實際應用會有很大影響。小編今天整理了特征值和特征向量的概念計算以及幾何意義,希望對大家機器學習有所幫助。

一、特征值和特征向量的概念和計算

An階方陣,如果存在常數及非零n向量x,使得,則稱是矩陣A特征值,xA屬于特征特征向量。給定n階矩陣A,行列式

的結果是關于的一個多項式,成為矩陣A的特征多項式,該特征多項式構成的方程稱為矩陣A的特征方程。

 

  定理:n階矩陣A的n個特征值就是其特征方程的n個跟;而A的屬于特征特征向量就是其次線性方程的非零解。


二、特征值和特征向量的幾何意義

我們先記線性變換一個T(Transformation)為T:\mathbb{R}^2\rightarrow \mathbb{R}^2,容易知道矩陣A代表一個線性變換,可以做升維降維,放大縮小以及旋轉的線性變換,而對于方陣A而言,是不存在升維降維的。即一個方陣A其對向量\vec{v}的線性變換為伸長收縮或者旋轉。

T(\vec{v}) = A\vec{v}

\vec{i},\vec{j}為基向量的空間下有個向量\vec{v}:

\vec{v}隨便左乘一個矩陣A,即對\vec{v}進行一個線性變換。

調整下\vec{v}的方向,使其特殊一點。

可以觀察到,調整后的\vec{v}A\vec{v}在同一直線上,只是A\vec{v}的長度相對\vec{v}的長度變長了。

此時,我們就稱\vec{v}A特征向量,而A\vec{v}的長度是\vec{v}的長度的\lambda倍,\lambda就是特征值。

即    T(\vec{v}) = A\vec{v} = \lambda \vec{v}

 

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢