熱線電話:13121318867

登錄
首頁精彩閱讀數據挖掘系列:什么是邏輯回歸訓練模型?
數據挖掘系列:什么是邏輯回歸訓練模型?
2015-12-09
收藏

數據挖掘系列:什么是邏輯回歸訓練模型?


在數據膨脹的當今社會里,海量數據中蘊含價值日漸凸顯出來。如何有效的挖掘海量數據中的有效信息已經成為各個領域面臨的共同問題。以互聯網企業為代表的科技公司依據自身的實際需求,開始大量的應用機器學習、數據挖掘以及人工智能等算法獲取海量數據中蘊含的信息,并且已經取得了很好的效果。


當今社會已經從過去的信息匱乏,轉變為信息泛濫的時代。由于網絡以及相關應用的不斷普及,網絡數據逐漸呈現著”海量,高維”的趨勢,如何利用已有的機器學習或者數據挖掘的算法,獲取有效信息,已經成為學術界以及工業所共同關注的重點。國內大數據技術服務商百分點公司已將機器學習的相關技術應用到大數據分析中,在百分點合作的某一團購網站,我們選取了10個基于商品和用戶的特征屬性,結合機器學習中的分類算法,構建了一個基于用戶推薦的分類器。在實際應用過程中,該團購網站點擊率平均提升19%,下單率提升42%,直接下單率提升了近一倍,從而達到了提高推薦效果的目的。

在本篇文章中將以機器學習的經典算法邏輯回歸模型作為預測模型,結合目前百分點為團購網站開發的分類模型作為具體實例,具體講解一下如何在”海量、高維”數據中有效的訓練模型。

什么是邏輯回歸模型?

機器學習算法中的邏輯回歸模型(Logic Regression, LR),以下簡稱為LR模型,是一個被廣泛應用在實際場景中的算法。在本篇文章主要考慮的對象是基于二元分類邏輯回歸預測模型,即分類器識別的類標號為。假設訓練集數據為,其中,,可以將訓練集看成是一個的矩陣,由于在本篇文章中主要針對的是高維的海量數據,但由于啞元變量的存在,數據中存在著大量的0/1值,因此可以將訓練集的整體看成是一個高維的稀疏矩陣。

在介紹如何訓練模型之前,首先簡單的介紹一下邏輯回歸模型。邏輯回歸模型是一種基于判別式的方法,它假定類的實例是線性可分的,通過直接估計判別式的參數,獲得最終的預測模型。邏輯回歸模型并不是對類條件密度建模,而是對類條件比率進行建模。假定類條件對數似然比是線性的:

使用貝葉斯公式,我們有:

表示為,因此我們可以得到邏輯回歸模型:

作為的估計。

訓練邏輯回歸模型

當我們確定使用LR模型并且選定了初始特征集,那么我們的下一步就是如何獲取最佳的評估參數,使得訓練得到的LR模型可以獲得最佳的分類效果。這個過程也可以看做是一個搜索的過程,即在一個LR模型的解空間內,如何查找一個與我們設計的LR模型最為匹配的解。為了達到能夠獲取對應的最佳LR模型,我們需要設計一種搜索策略,考慮按照什么樣的準則去選擇最優的模型。

如何選擇最佳的LR模型,直觀的想法就是通過預測模型的結果與真實值的匹配程度評價預測模型的好壞。在機器學習領域中,使用損失函數(loss function)或者代價函數(cost function)來計算預測結果與真實值得匹配程度。損失函數是一個非負實值函數,根據不同的需求,可以設計不同的損失函數。在本篇文章中將作為損失函數,其中是預測模型f基于測試實例X的預測值,Y是測試實例x的真實類標號的值。

機器學習中常用的損失函數包括以下幾種:

由于模型的輸入和輸出(X,Y)是隨機變量,遵循聯合分布P(X,Y),所以損失函數的期望是:

上面的期望公式表示的是理論預測模型關于聯合分布P(X,Y)在平均意義下的損失,稱為風險函數(risk function)或期望損失(expected loss)。損失函數與風險函數實際上都是為了測量預測模型的分類能力,只是前者是從微觀層次上考慮,而后者是從宏觀上(平均意義上)考慮。因此我們可以獲得關于訓練數據集的平均損失,稱為經驗風險(empiricalrisk)或經驗損失(empirical loss),記作:

其中是預測模型關于聯合分布的期望損失,而則是模型關于訓練樣本的平均損失。根據統計學中的大數定理,當樣本容量很大的時候,可以將經驗損失作為期望損失。但是在訓練模型的過程中,由于數據中存在著噪音數據或者數據偏移的問題,導致了訓練模型的泛化性非常差,也就是機器學習中著名的過度擬合的問題。為了解決這個問題,需要規則化處理,人為增加約束條件,在經驗風險函數上添加上表示模型復雜度的正則化項(regularizer)或懲罰項(penalty term),這種經驗風險函數被稱作結構風險最小化(Structural Risk Minimization, SRM),可以使用下面的公式表示:

其中用來懲罰模型的復雜度,模型F越復雜,復雜度越大,是系數,用以權衡經驗風險和模型的復雜度。

機器學習中,總結起來共有三類方法用來設計相關的經驗風險函數:

當設計的模型很簡單,并且數據量也很大的時候,給定一組參數以后,可以使用最大似然評估方法(Maximum Likelihood Estimation, MLE)訓練得到相關的模型參數;

當設計的模型很復雜,存在著隱含變量。這樣的情況可以使用EM算法評估模型的參數。一般分為兩個步驟,首先給定參數,對于隱含變量做期望,算出包括隱變量的似然函數;第二步,使用MLE方法,評估參數值,更新對應的參數值;

當模型并不是很復雜,但是數據非常少的時候,并且具有一定的先驗知識的時候,可以使用貝葉斯統計方法評估模型的參數,也就是所謂的最大后驗概率(Maximum A Posteriori,MAP)。首先基于先驗知識,給定待估參數一個先驗統計分布,然后根據貝葉斯公式,推算出參數的后驗分布(posterior probability),最后最大化這個后驗概率,獲得對應的參數值。

由于本篇文章針對的是“高維、海量”的訓練數據,并且使用了相對簡單的LR模型作為預測模型,因此我們在訓練模型的過程中使用了MLE方法,設計相關的經驗風險參數;其次由于本身的訓練數據充足,因此在經驗函數中并沒有添加對應的基于模型復雜的懲罰項(正則化),在我們模型中其具體的風險函數如下所示:

下面的問題就轉變為一個無約束的最優化的問題。在基于海量數據訓練模型的時候,需要考慮的是如何高效的訓練模型。在實際的開發過程中,個人認為可以從兩個方面提高訓練模型的效率。首先是對于數據在內存的存儲結構進行優化,尤其是針對“高維、稀疏”矩陣的時候,在本次實驗中我們應用了R中的Matrix包中的稀疏矩陣格式,大幅度提高了算法計算效率。其次需要選擇相關的迭代算法,加快經驗風險函數的收斂速度。在這里介紹幾種常用的迭代算法:

牛頓迭代算法中的牛頓-拉斐森迭代算法,該算法需要計算海森矩陣,因此算法需要花費大量的時間,迭代時間較長。

擬牛頓迭代算法,使用近似算法,計算海森矩陣,從而降低算法每次迭代的時間,提高算法運行的效率。在擬牛頓算法中較為經典的算法有兩種:BFGS算法和L-BFGS算法。BFGS算法是利用原有的所有歷史計算結果,近似計算海森矩陣,雖然提高了整個算法的效率,但是由于需要保存大量歷史結果,因此該算法受到內存的大小的局限,限制了算法的應用范圍;而L-BFGS則是正是針對BFGS消耗內存較大的特點,只保存有限的計算結果,大大降低了算法對于內存的依賴。

在實際應用中選擇何種迭代算法,需要根據實際需求以及數據本身的特點進行選擇,在本次試驗我們選取了牛頓-拉斐森迭代算法以及L-BFGS算法作為LR模型的迭代算法。

屬性選擇

當學習算法迭代完成之后,我們可以獲對應各個屬性的權重。接下來的任務我們需要對現有屬性與響應變量之間的顯著性進行檢驗,針對已有的訓練模型對應的屬性集進行驗證,刪除顯著性不符合閾值的特征。由于在構建風險函數的時候,使用了MLE方法,因此可以使用Wald Test對于計算得到的參數,進行顯著性驗證。在使用Wald Test之前,要確保期望值與評估值之間的差值符合正態分布。Wald統計變量的一般形式:

其中表示評估值,表示期望值,表示評估值方差。在本次試驗中我們將原假設設定為,即表示現有的屬性與響應變量無相關性,因此本實驗的Wald統計值可以表示為:

其中是實際估計的參數值,的標準方差。由于Wald統計值對應卡方分布,因此可以利用卡方分布計算P值,如果P值大于指定的閾值,那么可以認為原假設成立,即該屬性與響應變量是顯著不相關,刪除該變量,否則保存該變量。在實際的訓練過程中,每次驗證屬性顯著性的時候,只挑選P值最大與人為設定的閾值進行比較;如果選擇的P值不大于閾值,那么模型訓練完畢;否則刪除選擇的P值對應的屬性,更新預測模型。重新學習更新后的預測模型,推測對應的權重值,然后再次對各個屬性進行Wald Test驗證。重復上面的過程,直到沒有任何變量的Wald Test對應的P值都不大于人為設定的閾值為止。到此整個模型的訓練過程結束。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢