熱線電話:13121318867

登錄
首頁精彩閱讀數據挖掘中所需的概率論與數理統計知識(十)
數據挖掘中所需的概率論與數理統計知識(十)
2014-11-29
收藏

數據挖掘中所需的概率論與數理統計知識(十)


正態分布和最大熵

    還有一條小徑是基于最大熵原理的,物理學家E.T.Jaynes在最大熵原理上有非常重要的貢獻,他在《概率論沉思錄》里面對這個方法有描述和證明,沒有提到發現者,不過難以確認這條道的發現者是否是Jaynes本人。
    熵在物理學中由來已久,信息論的創始人香農(Claude Elwood Shannon)把這個概念引入了信息論,讀者中很多人可能都知道目前機器學習中有一個非常好用的分類算法叫最大熵分類器。要想把熵和最大熵的來龍去脈說清楚可不容易,不過這條道的風景是相當獨特的,E.T.Jaynes對這條道也是偏愛有加。
    對于一個概率分布,我們定義它的熵為
    如果給定一個分布函數的均值和方差(給定均值和方差這個條件,也可以描述為給定一階原點矩和二階原點矩,這兩個條件是等價的)則在所有滿足這兩個限制的概率分布中,熵最大的概率分布就是正態分布。
    這個結論的推導數學上稍微有點復雜,不過如果已經猜到了給定限制條件下最大熵的分布是正態分布,要證明這個猜測卻是很簡單的,證明的思路如下。
    考慮兩個概率分布,使用不等式,得
    于是
      (讀者注意:經好友白石指正,上述等式,右邊的第一項p(x)之后,1/p(x) 之前少畫了個log符號
    所以

    熟悉信息論的讀者都知道,這個式子是信息論中的很著名的結論:一個概率分布的熵總是小于相對熵。上式要取等號只有取。
    對于,在給定的均值和方差下,我們取,則可以得到
    由于的均值方差有如下限制:,于是
    而當的時候,上式可以取到等號,這就證明了結論。

    E.T.Jaynes顯然對正態分布具有這樣的性質極為贊賞,因為這從信息論的角度證明了正態分布的優良性。而我們可以看到,正態分布熵的大小,取決于方差的大小。這也容易理解,因為正態分布的均值和密度函數的形狀無關,正態分布的形狀是由其方差決定的,而熵的大小反應概率分布中的信息量,顯然和密度函數的形狀相關。


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢