熱線電話:13121318867

登錄
首頁精彩閱讀線性判別分析(Linear Discriminant Analysis, LDA)算法分析
線性判別分析(Linear Discriminant Analysis, LDA)算法分析
2016-04-24
收藏

線性判別分析(Linear Discriminant Analysis, LDA)算法分析

一. LDA算法概述:

線性判別式分析(Linear Discriminant Analysis, LDA),也叫做Fisher線性判別(Fisher Linear Discriminant ,FLD),是模式識別的經典算法,它是在1996年由Belhumeur引入模式識別和人工智能領域的。性鑒別分析的基本思想是將高維的模式樣本投影到最佳鑒別矢量空間,以達到抽取分類信息和壓縮特征空間維數的效果,投影后保證模式樣本在新的子空間有最大的類間距離和最小的類內距離,即模式在該空間中有最佳的可分離性。因此,它是一種有效的特征抽取方法。使用這種方法能夠使投影后模式樣本的類間散布矩陣最大,并且同時類內散布矩陣最小。就是說,它能夠保證投影后模式樣本在新的空間中有最小的類內距離和最大的類間距離,即模式在該空間中有最佳的可分離性。

二. LDA假設以及符號說明:

假設對于一個空間有m個樣本分別為x1,x2,……xm 即 每個x是一個n行的矩陣,其中表示屬于i類的樣本個數,假設有一個有c個類,則。

Clipboard Image.png

三. 公式推導,算法形式化描述

根據符號說明可得類i的樣本均值為:

Clipboard Image.png

同理我們也可以得到總體樣本均值:

Clipboard Image.png

根據類間離散度矩陣和類內離散度矩陣定義,可以得到如下式子:

Clipboard Image.png

當然還有另一種類間類內的離散度矩陣表達方式:

Clipboard Image.png

我們可以知道矩陣Clipboard Image.png 的實際意義是一個協方差矩陣,這個矩陣所刻畫的是該類與樣本總體之間的關系,其中該矩陣對角線上的函數所代表的是該類相對樣本總體的方差(即分散度),而非對角線上的元素所代表是該類樣本總體均值的協方差(即該類和總體樣本的相關聯度或稱冗余度),所以根據公式(3)可知(3)式即把所有樣本中各個樣本根據自己所屬的類計算出樣本與總體的協方差矩陣的總和,這從宏觀上描述了所有類和總體之間的離散冗余程度。同理可以的得出(4)式中為分類內各個樣本和所屬類之間的協方差矩陣之和,它所刻畫的是從總體來看類內各個樣本與類之間(這里所刻畫的類特性是由是類內各個樣本的平均值矩陣構成)離散度,其實從中可以看出不管是類內的樣本期望矩陣還是總體樣本期望矩陣,它們都只是充當一個媒介作用,不管是類內還是類間離散度矩陣都是從宏觀上刻畫出類與類之間的樣本的離散度和類內樣本和樣本之間的離散度。

LDA做為一個分類的算法,我們當然希望它所分的類之間耦合度低,類內的聚合度高,即類內離散度矩陣的中的數值要小,而類間離散度矩陣中的數值要大,這樣的分類的效果才好。

這里我們引入Fisher鑒別準則表達式:

Clipboard Image.png

其中Clipboard Image.png 為任一n維列矢量。Fisher線性鑒別分析就是選取使得Clipboard Image.png達到最大值的矢量Clipboard Image.png作為投影方向,其物理意義就是投影后的樣本具有最大的類間離散度和最小的類內離散度。

我們把公式(4)和公式(3)代入公式(5)得到:

Clipboard Image.png

Clipboard Image.png

Clipboard Image.png

四. 算法的物理意義和思考

4.1 用一個例子闡述LDA算法在空間上的意義

下面我們利用LDA進行一個分類的問題:假設一個產品有兩個參數來衡量它是否合格,

我們假設兩個參數分別為:

Clipboard Image.png

所以我們可以根據上圖表格把樣本分為兩類,一類是合格的,一類是不合格的,所以我們可以創建兩個數據集類:

cls1_data =

2.9500    6.6300

2.5300    7.7900

3.5700    5.6500

3.1600    5.4700


cls2_data =

2.5800    4.4600

2.1600    6.2200

3.2700    3.5200


其中cls1_data為合格樣本,cls2_data為不合格的樣本,我們根據公式(1),(2)可以算出合格的樣本的期望值,不合格類樣本的合格的值,以及總樣本期望:

E_cls1 =

3.0525    6.3850

E_cls2 =

2.6700    4.7333

E_all =

2.8886    5.6771

我們可以做出現在各個樣本點的位置:

Clipboard Image.png

圖一

其中藍色‘*’的點代表不合格的樣本,而紅色實點代表合格的樣本,天藍色的倒三角是代表總期望,藍色三角形代表不合格樣本的期望,紅色三角形代表合格樣本的期望。從x,y軸的坐標方向上可以看出,合格和不合格樣本區分度不佳。

我們在可以根據表達式(3),(4)可以計算出類間離散度矩陣和類內離散度矩陣:

Sb =

0.0358    0.1547

0.1547    0.6681

Sw =

0.5909   -1.3338

-1.3338    3.5596

我們可以根據公式(7),(8)算出 Clipboard Image.png特征值以及對應的特征向量:

L =

0.0000         0

0    2.8837

對角線上為特征值,第一個特征值太小被計算機約為0了

與他對應的特征向量為

V =

-0.9742   -0.9230

0.2256   -0.3848

根據取最大特征值對應的特征向量:(-0.9230,-0.3848),該向量即為我們要求的子空間,我們可以把原來樣本投影到該向量后 所得到新的空間(2維投影到1維,應該為一個數字)

new_cls1_data =


-5.2741

-5.3328

-5.4693

-5.0216

為合格樣本投影后的樣本值

new_cls2_data =

-4.0976

-4.3872

-4.3727

為不合格樣本投影后的樣本值,我們發現投影后,分類效果比較明顯,類和類之間聚合度很高,我們再次作圖以便更直觀看分類效果

Clipboard Image.png


圖二

藍色的線為特征值較小所對應的特征向量,天藍色的為特征值較大的特征向量,其中藍色的圈點為不合格樣本在該特征向量投影下來的位置,二紅色的‘*’符號的合格樣本投影后的數據集,從中個可以看出分類效果比較好(當然由于x,y軸單位的問題投影不那么直觀)。

我們再利用所得到的特征向量,來對其他樣本進行判斷看看它所屬的類型,我們取樣本點

(2.81,5.46),

我們把它投影到特征向量后得到:result = -4.6947 所以它應該屬于不合格樣本。

4.2 LDA算法與PCA算法

在傳統特征臉方法的基礎上,研究者注意到特征值打的特征向量(即特征臉)并一定是分類性能最好的方向,而且對K-L變換而言,外在因素帶來的圖像的差異和人臉本身帶來的差異是無法區分的,特征連在很大程度上反映了光照等的差異。研究表明,特征臉,特征臉方法隨著光線,角度和人臉尺寸等因素的引入,識別率急劇下降,因此特征臉方法用于人臉識別還存在理論的缺陷。線性判別式分析提取的特征向量集,強調的是不同人臉的差異而不是人臉表情、照明條件等條件的變化,從而有助于提高識別效果。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢