熱線電話:13121318867

登錄
首頁精彩閱讀數據挖掘中所需的概率論與數理統計知識?(三)
數據挖掘中所需的概率論與數理統計知識?(三)
2014-11-11
收藏

據挖掘中所需的概率論與數理統計知識(三)


從數學期望、方差、協方差到中心極限定理

3.1、數學期望、方差、協方差

3.1.1、數學期望

     如果X是在概率空間(Ω, P)中的一個隨機變量,那么它的期望值E[X]的定義是:
     并不是每一個隨機變量都有期望值的,因為有的時候這個積分不存在。如果兩個隨機變量的分布相同,則它們的期望值也相同。
    在概率論和統計學中,數學期望分兩種(依照上文第二節相關內容也可以得出),一種為離散型隨機變量的期望值,一種為連續型隨機變量的期望值。
  • 一個離散性隨機變量的期望值(或數學期望、或均值,亦簡稱期望)是試驗中每次可能結果的概率乘以其結果的總和。換句話說,期望值是隨機試驗在同樣的機會下重復多次的結果計算出的等同“期望”的平均值。
    例如,擲一枚六面骰子,得到每一面的概率都為1/6,故其的期望值是3.5,計算如下:
    承上,如果X 是一個離散的隨機變量,輸出值為x1, x2, ..., 和輸出值相應的概率為p1, p2, ...(概率和為1),若級數絕對收斂,那么期望值E[X]是一個無限數列的和:
    上面擲骰子的例子就是用這種方法求出期望值的。 
  • 而對于一個連續型隨機變量來說,如果X的概率分布存在一個相應的概率密度函數f(x),若積分絕對收斂,那么X 的期望值可以計算為: 
    
    實際上,此連續隨機型變量的期望值的求法與離散隨機變量的期望值的算法同出一轍,由于輸出值是連續的,只不過是把求和改成了積分。

3.1.2、方差與標準差

方差    
    在概率論和統計學中,一個隨機變量的方差(Variance)描述的是它的離散程度,也就是該變量離其期望值的距離。一個實隨機變量的方差也稱為它的二階矩或二階中心動差,恰巧也是它的二階累積量。方差的算術平方根稱為該隨機變量的標準差。
    其定義為:如果是隨機變量X的期望值(平均數) 設為服從分布的隨機變量,則稱為隨機變量或者分布的方差:
    其中,μ為平均數,N為樣本總數。 
    分別針對離散型隨機變量和連續型隨機變量而言,方差的分布律和概率密度如下圖所示:
標準差
    標準差(Standard Deviation),在概率統計中最常使用作為統計分布程度(statistical dispersion)上的測量。標準差定義為方差的算術平方根,反映組內個體間的離散程度。
    簡單來說,標準差是一組數值自平均值分散開來的程度的一種測量觀念。一個較大的標準差,代表大部分的數值和其平均值之間差異較大;一個較小的標準差,代表這些數值較接近平均值。例如,兩組數的集合 {0, 5, 9, 14} 和 {5, 6, 8, 9} 其平均值都是 7 ,但第二個集合具有較小的標準差。
    前面說過,方差的算術平方根稱為該隨機變量的標準差,故一隨機變量的標準差定義為:
    須注意并非所有隨機變量都具有標準差,因為有些隨機變量不存在期望值。 如果隨機變量具有相同概率,則可用上述公式計算標準差。 
    上述方差.標準差等相關內容,可用下圖總結之:
樣本標準差
    在真實世界中,除非在某些特殊情況下,找到一個總體的真實的標準差是不現實的。大多數情況下,總體標準差是通過隨機抽取一定量的樣本并計算樣本標準差估計的。說白了,就是數據海量,想計算總體海量數據的標準差無異于大海撈針,那咋辦呢?抽取其中一些樣本作為抽樣代表唄。
    而從一大組數值當中取出一樣本數值組合,進而,我們可以定義其樣本標準差為:
    樣本方差是對總體方差的無偏估計。  中分母為 n-1 是因為的自由度為n-1(且慢,何謂自由度?簡單說來,即指樣本中的n個數都是相互獨立的,從其中抽出任何一個數都不影響其他數據,所以自由度就是估計總體參數時獨立數據的數目,而平均數是根據n個獨立數據來估計的,因此自由度為n),這是由于存在約束條件。 

3.1.3、協方差與相關系數

協方差
    下圖即可說明何謂協方差,同時,引出相關系數的定義:

相關系數 

    如上篇kd樹blog所述相關系數 ( Correlation coefficient )的定義是:


(其中,E為數學期望或均值,D為方差,D開根號為標準差,E{ [X-E(X)] [Y-E(Y)]}稱為隨機變量X與Y的協方差,記為Cov(X,Y),即Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)]},而兩個變量之間的協方差和標準差的商則稱為隨機變量X與Y的相關系數,記為)
    相關系數衡量隨機變量X與Y相關程度的一種方法,相關系數的取值范圍是[-1,1]。相關系數的絕對值越大,則表明X與Y相關度越高。當X與Y線性相關時,相關系數取值為1(正線性相關)或-1(負線性相關)。
    具體的,如果有兩個變量:X、Y,最終計算出的相關系數的含義可以有如下理解:

  1. 當相關系數為0時,X和Y兩變量無關系。
  2. 當X的值增大(減?。?,Y值增大(減?。?,兩個變量為正相關,相關系數在0.00與1.00之間。
  3. 當X的值增大(減?。?,Y值減?。ㄔ龃螅?,兩個變量為負相關,相關系數在-1.00與0.00之間。
   根據相關系數,相關距離可以定義為:

    這里只對相關系數做個簡要介紹,欲了解機器學習中更多相似性距離度量表示法,可以參看上篇kd樹blog第一部分內容。
    自此,已經介紹完期望方差協方差等基本概念,但一下子要讀者接受那么多概念,怕是有難為讀者之嫌,不如再上幾幅圖鞏固下上述相關概念吧(數據挖掘):

3.1.4、協方差矩陣與主成成分分析

協方差矩陣

    由上,我們已經知道:協方差是衡量兩個隨機變量的相關程度。且隨機變量 之間的協方差可以表示為

                                                         

     故根據已知的樣本值可以得到協方差的估計值如下:

                                               

    可以進一步地簡化為:

                                                             

    如此,便引出了所謂的協方差矩陣: 

主成成分分析

    盡管從上面看來,協方差矩陣貌似很簡單,可它卻是很多領域里的非常有力的工具。它能導出一個變換矩陣,這個矩陣能使數據完全去相關(decorrelation)。從不同的角度看,也就是說能夠找出一組最佳的基以緊湊的方式來表達數據。這個方法在統計學中被稱為主成分分析(principal components analysis,簡稱PCA),在圖像處理中稱為Karhunen-Loève 變換(KL-變換)。

    根據wikipedia上的介紹,主成分分析PCA由卡爾·皮爾遜于1901年發明,用于分析數據及建立數理模型。其方法主要是通過對協方差矩陣進行特征分解,以得出數據的主成分(即特征矢量)與它們的權值(即特征值)。PCA是最簡單的以特征量分析多元統計分布的方法。其結果可以理解為對原數據中的方差做出解釋:哪一個方向上的數據值對方差的影響最大。

    然為何要使得變換后的數據有著最大的方差呢?我們知道,方差的大小描述的是一個變量的信息量,我們在講一個東西的穩定性的時候,往往說要減小方差,如果一個模型的方差很大,那就說明模型不穩定了。但是對于我們用于機器學習的數據(主要是訓練數據),方差大才有意義,不然輸入的數據都是同一個點,那方差就為0了,這樣輸入的多個數據就等同于一個數據了。

    簡而言之,主成分分析PCA,留下主成分,剔除噪音,是一種降維方法,限高斯分布,n維眏射到k維,
  1. 減均值,
  2. 特征協方差矩陣,
  3. 求協方差的特征值和特征向量,
  4. 取最大的k個特征值所對應的特征向量組成特征向量矩陣,
  5. 投影數據=原始樣本矩陣x特征向量矩陣。其依據為最大方差,最小平方誤差或坐標軸相關度理論,及矩陣奇異值分解SVD(即SVDPCA提供了另一種解釋)。
    也就是說,高斯是0均值,其方差定義了信噪比,所以PCA是在對角化低維表示的協方差矩陣,故某一個角度而言,只需要理解方差、均值和協方差的物理意義,PCA就很清晰了。

    再換言之,PCA提供了一種降低數據維度的有效辦法;如果分析者在原數據中除掉最小的特征值所對應的成分,那么所得的低維度數據必定是最優化的(也即,這樣降低維度必定是失去訊息最少的方法)。主成分分析在分析復雜數據時尤為有用,比如人臉識別。

3.2、中心極限定理

    本節先給出現在一般的概率論與數理統計教材上所介紹的2個定理,然后簡要介紹下中心極限定理的相關歷史。

3.2.1、獨立同分布的中心極限定理

    獨立中心極限定理如下兩圖所示:

3.2.2、棣莫弗-拉普拉斯中心極限定理

    此外,據wikipedia上的介紹,包括上面介紹的棣莫弗-拉普拉斯定理在內,歷史上前后發展了三個相關的中心極限定理,它們得出的結論及內容分別是:

  • 棣莫弗-拉普拉斯(de Movire - Laplace)定理是中心極限定理的最初版本,討論了服從二項分布的隨機變量序列。
 其內容為:若是n次伯努利實驗中事件A出現的次數,,則對任意有限區間
(i)當時,一致地有

(ii)當時,一致地有, 
,其中。
         它指出,參數為n, p的二項分布以np為均值、np(1-p)為方差的正態分布為極限。    
  • 林德伯格-列維(Lindeberg-Levy)定理,是棣莫佛-拉普拉斯定理的擴展,討論獨立同分布隨機變量序列的中心極限定理。
 其內容為:設隨機變量獨立同分布, 且具有有限的數學期望和方差,。
,,則,其中是標準正態分布的分布函數。 
    它表明,獨立同分布、且數學期望和方差有限的隨機變量序列的標準化和以標準正態分布為極限。
  • 林德伯格-費勒定理,是中心極限定理的高級形式,是對林德伯格-列維定理的擴展,討論獨立,但不同分布的情況下的隨機變量和。
    其內容為:記隨機變量序列獨立但不一定同分布,且有有限方差)部分和為
    記
,
    如果對每個,序列滿足
    則稱它滿足林德伯格(Lindeberg)條件。
    滿足此條件的序列趨向于正態分布,即
    與之相關的是李雅普諾夫(Lyapunov)條件:
    滿足李雅普諾夫條件的序列必滿足林德伯格條件。 

    它表明,滿足一定條件時,獨立,但不同分布的隨機變量序列的標準化和依然以標準正態分布為極限。

3.2.3、歷史

    1776年,拉普拉斯開始考慮一個天文學中的彗星軌道的傾角的計算問題,最終的問題涉及獨立隨機變量求和的概率計算,也就是計算如下的概率值
    令 Sn=X1+X2+?+Xn, 那么
    在這個問題的處理上,拉普拉斯充分展示了其深厚的數學分析功底和高超的概率計算技巧,他首次引入了特征函數(也就是對概率密度函數做傅立葉變換)來處理概率分布的神妙方法,而這一方法經過幾代概率學家的發展,在現代概率論里面占有極其重要的位置?;谶@一分析方法,拉普拉斯通過近似計算,在他的1812年的名著《概率分析理論》中給出了中心極限定理的一般描述:
    [定理Laplace,1812]設 ei(i=1,?n)為獨立同分布的測量誤差,具有均值μ和方差σ2。如果λ1,?,λn為常數,a>0,則有
    這已經是比棣莫弗-拉普拉斯中心極限定理更加深刻的一個結論了,在現在大學本科的教材上,包括包括本文主要參考之一盛驟版的概率論與數理統計上,通常給出的是中心極限定理的一般形式: 
    [Lindeberg-Levy中心極限定理] 設X1,?,Xn獨立同分布,且具有有限的均值μ和方差σ2,則在n→∞時,有

    多么奇妙的性質,隨意的一個概率分布中生成的隨機變量,在序列和(或者等價的求算術平均)的操作之下,表現出如此一致的行為,統一的規約到正態分布。
    概率學家們進一步的研究結果更加令人驚訝,序列求和最終要導出正態分布的條件并不需要這么苛刻,即便X1,?,Xn并不獨立,也不具有相同的概率分布形式,很多時候他們求和的最終歸宿仍然是正態分布。
    在正態分布、中心極限定理的確立之下,20世紀之后,統計學三大分布χ2分布、t分布、F分布也逐步登上歷史舞臺:

    如上所述,中心極限定理的歷史可大致概括為:

  1. 中心極限定理理的第一版被法國數學家棣莫弗發現,他在1733年發表的卓越論文中使用正態分布去估計大量拋擲硬幣出現正面次數的分布;
  2. 1812年,法國數學家拉普拉斯在其巨著 Théorie Analytique des Probabilités中擴展了棣莫弗的理論,指出二項分布可用正態分布逼近;
  3. 1901年,俄國數學家李雅普諾夫用更普通的隨機變量定義中心極限定理并在數學上進行了精確的證明。

    如今,中心極限定理被認為是(非正式地)概率論中的首席定理。本文來自:http://www.ruiqisteel.com/


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢