熱線電話:13121318867

登錄
首頁精彩閱讀機器學習數據降維方法:PCA主成分分析
機器學習數據降維方法:PCA主成分分析
2020-06-16
收藏

PCA機器學習中很常用,是一種無參數的數據降維方法。PCA步驟:

  1. 將原始數據按列組成n行m列矩陣X
  2. 將X的每一行(代表一個屬性字段)進行零均值化,即減去這一行的均值
  3. 求出協方差矩陣
  4. 求出協方差矩陣的特征值及對應的特征向量
  5. 特征向量按對應特征值大小從上到下按行排列成矩陣,取前k行組成矩陣P
  6. Y=PX即為降維到k維后的數據

1. PCA的推導

PCA通過線性變換將原始數據變換為一組各維度線性無關的表示,可用于提取數據的主要特征分量,常用于高維數據的降維。

我們知道PCA是一種數據降維的方法,在降低維度的過程中,我們當然想要保留更多的特征,PCA就是經過數學推導,保留最多特征同時降維的方法。

在推導之前要先知道幾個基礎知識:

  1. 內積與投影

兩個維數相同的向量的內積被定義為:

假設A和B是兩個n維向量,我們知道n維向量可以等價表示為n維空間中的一條從原點發射的有向線段,為了簡單起見我們假設A和B均為二維向量,則A=(x1,y1),B=(x2,y2)。則在二維平面上A和B可以用兩條發自原點的有向線段表示,見下圖:

現在我們從A點向B所在直線引一條垂線。我們知道垂線與B的交點叫做A在B上的投影,再設A與B的夾角是a,則投影的矢量長度為|A|cos(a),其中|A|是向量A的模,也就是A線段的標量長度。

到這里還是看不出內積和這東西有什么關系,不過如果我們將內積表示為另一種我們熟悉的形式:

現在事情似乎是有點眉目了:A與B的內積等于A到B的投影長度乘以B的模。再進一步,如果我們假設B的模為1,即讓|B|=1,那么就變成了:

也就是說,設向量B的模為1,則A與B的內積值等于A向B所在直線投影的矢量長度!這就是內積的一種幾何解釋,也是我們得到的第一個重要結論。在后面的推導中,將反復使用這個結論。

下面我們繼續在二維空間內討論向量。上文說過,一個二維向量可以對應二維笛卡爾直角坐標系中從原點出發的一個有向線段。例如下面這個向量:

在代數表示方面,我們經常用線段終點的點坐標表示向量,例如上面的向量可以表示為(3,2),這是我們再熟悉不過的向量表示。

我們列舉的例子中基是正交的(即內積為0,或直觀說相互垂直),但可以成為一組基的唯一要求就是線性無關,非正交的基也是可以的。不過因為正交基有較好的性質,所以一般使用的基都是正交的。

3. 基變換的矩陣表示

一般的,如果我們有M個N維向量,想將其變換為由R個N維向量表示的新空間中,那么首先將R個基按行組成矩陣A,然后將向量按列組成矩陣B,那么兩矩陣的乘積AB就是變換結果,其中AB的第m列為A中第m列變換后的結果。(新基按行,向量按列)

特別要注意的是,這里R可以小于N,而R決定了變換后數據的維數。也就是說,我們可以將一N維數據變換到更低維度的空間中去,變換后的維度取決于基的數量。因此這種矩陣相乘的表示也可以表示降維變換。

最后,上述分析同時給矩陣相乘找到了一種物理解釋:兩個矩陣相乘的意義是將右邊矩陣中的每一列列向量變換到左邊矩陣中每一行行向量為基所表示的空間中去。更抽象的說,一個矩陣可以表示一種線性變換。很多同學在學線性代數時對矩陣相乘的方法感到奇怪,但是如果明白了矩陣相乘的物理意義,其合理性就一目了然了。

4. 協方差矩陣與優化目標

我們從上面的矩陣乘法與基變換可以看出,當新基的維數小于原來的維數時可以做到數據的降維,但是究竟如何選擇新基就是我們現在面臨的問題,我們想要選擇一個維數更小的新基,同時新基保留有更多的信息。我們知道矩陣向新基投影的形式,也就是PCA是將一組N維的特征投影到K維(K特征。< p="">特征。<>

那么怎么衡量更多的特征,也就是投影后盡量少的重疊,投影值盡可能分散。

協方差

從二維到一維的降維,只需要找到一個一維基使得方差最大,但是三維降到二維呢?我們需要找到兩個基讓這個三維數據投影到兩個基上,如果我們找方差最大的兩個基,會發現他們完全一樣或者線性相關,這和一個基沒什么區別,不能表達更多的信息,所以我們需要添加限制條件,我們希望這兩個基彼此線性無關,擴展到K個基也是一樣。

當協方差為0時,表示兩個字段完全獨立。為了讓協方差為0,我們選擇第二個基時只能在與第一個基正交的方向上選擇。因此最終選擇的兩個方向一定是正交的。

至此,我們得到了降維問題的優化目標:將一組N維向量降為K維(K大于0,小于N),其目標是選擇K個單位(模為1)正交基,使得原始數據變換到這組基上后,各字段兩兩間協方差為0,而字段的方差則盡可能大(在正交的約束下,取最大的K個方差)。

關于PCA的貢獻率與K的選擇

在我的文章特征值和特征向量中說過,特征值反映了矩陣對于特征向量的拉伸程度,只有拉伸而沒有旋轉,也就是在特征向量方向上的作用程度,所以在PCA中我們選取前K個特征向量組成新基進行投影,就是因為原特征在前K個特征向量有最大的作用程度。

投影過后可以保留更多的信息,作用程度是用特征值表示的,所以我們可以使用下面的式子表示貢獻率,貢獻率是表示投影后信息的保留程度的變量,也就是特征值的總和比上前K個特征值,一般來說貢獻率要大于85%。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢