熱線電話:13121318867

登錄
首頁大數據時代CDA LEVEL 1 考試,知識點匯總《分類分析》
CDA LEVEL 1 考試,知識點匯總《分類分析》
2024-08-13
收藏

一、相關性檢驗

列聯表和卡方檢驗 分類變量之間的相關性一般可以采用列聯表分析或卡方檢驗的方法來進行驗證。 列聯表是兩個分類變量的分類水平之間形成的交叉頻數表,通過計算行百分比或列百分比,對實際頻率和期望頻率進行對 比分析,例如一個典型的列聯表如下:

對于表中頻數、期望頻數、行/列百分比的解讀方法要熟練掌握。 比如98代表的是頭發顏色為金色,眼睛顏色為深色的樣本數量。 而355.2則是期望的數量。6.7%是行百分比,也就是在所有頭發顏 色為金色的樣本中,眼睛顏色為深色的占比。

CDA LEVEL 1 考試,知識點匯總《分類分析》

列聯表是一種比較簡單的描述性統計方法,而卡方檢驗則可以通過量化的方法對兩個分類變量的相關性進行檢驗,卡方統 計量如下:

CDA LEVEL 1 考試,知識點匯總《分類分析》

二、邏輯回歸

在掌握了列聯表分析和卡方檢驗的基礎上,可以學習使用邏輯回歸對分類變量進行預測。 邏輯回歸主要處理的就是分類問題。事實上,也可以把他看作是線性回歸一種延伸。我們面對的因變量,也就是模型輸出 結果不再是一個連續變量,而是一個分類變量。最常見的邏輯回歸就是二分類變量邏輯回歸,通常我們可以使用這種方法 來尋找目標客戶。

CDA LEVEL 1 考試,知識點匯總《分類分析》

三、邏輯回歸,變量篩選

1.進行邏輯回歸時,我們希望選擇的變量盡可能地有效,避免冗余。常用的變量篩選方法有如下幾種:

Wald檢驗:通過Wald統計量,來檢驗自變量對因變量的影響能力。Wald越大,說明自變量的相關性越大,越應該保留。

似然比檢驗(Likehood Ratio):也是邏輯回歸非常常用的一種檢驗方法。邏輯回歸模型的估計一般是使用最大似然估計, 也就是說找到一個似然函數L,使其達到最大值。L越大,也就說明模型的預測效果越好。因此似然比檢驗本質上是對包 含或者不包含某一個或者幾個變量的模型L值進行比較,從而做出判斷。

比分檢驗(Score Test):以包含某個或者某幾個變量的模型作為基礎,加入系數為0的新變量,通過計算似然函數的一階 偏導數和信息矩陣,取兩者的乘積作為最終的統計量。

這三種方法中,似然比檢驗是最可靠,也是最常用的一種變量篩選方法。在變量存在共線性時,Wald檢驗結果不可靠。另 外,實際應用是以上三種方法,都可以采用向前或者向后逐步的方式進行變量篩選。

另外在邏輯回歸模型里,我們需要使得自變量和因變量的對數存在線性關系。如果發現實際的變量不符合,可以通過篩選 變量,變量轉換等方式進行調整。另外變量轉換也可以避免異常值對結果造成偏差。

前面提到,邏輯回歸的模型參數估計通常采用的是最大似然函數法,因此理論上需要有一定量的樣本才能采用這種方法, 否則檢驗公式就是不合理的。另外也需要注意的是,邏輯回歸的模型無法解決多重共線性的問題,因此在輸入變量前,對 變量進行檢驗和清洗是非常必要的。 得到模型后,我們可以通過混淆矩陣ROC曲線來評判模型的效果。

CDA LEVEL 1 考試,知識點匯總《分類分析》

2.混淆矩陣——靈敏度和特異度

靈敏度指的是模型“擊中”的概率,也就是對于實際發生(取值為1)的樣本,模型預測為1的概率。對應上圖的公式為 A/(A+B)。

特異度指的是模型“正確否定”的概率,也就是說對于實際沒發生(取值為0)的樣本,模型預測為0的概率。對應上圖 的公式為D/(C+D)。

因此,可以看到不管是靈敏度還是特異度,都是越高,說明我們的模型越有效。在實際應用中,由于邏輯回歸模型計算 的結果其實是一個相對可能性p,因此我們可以根據實際情況調整判斷取值為1的p的標準。更有側重性地提高靈敏度或 者特異度。

3.ROC曲線

除了使用混淆矩陣,我們還可以通過ROC曲線的方式來圖形化地判斷模型效果。

ROC曲線也是基于靈敏度和特異度來進行判斷的。曲線下面積AUC 指的是ROC曲線、底線和右側線圍成的面積。ROC曲線的面積一般 在0.5-1之間。這個數值越接近1,表明模型預測能力越強。當AUC 在0.7-0.9時,我們認為模型有較高的判斷作用。而AUC接近0.5的 時候,我們人為這個模型是無效的。

在實際業務中,我們一般利用二分類邏輯回歸作為篩選目標客戶的 主要手段。不管是識別明星客戶、流失客戶,甚至是可能存在違約 或者欺詐行為的客戶,都可以采用這種方法。

CDA LEVEL 1 考試,知識點匯總《分類分析》

四、例題精講

1. 某客戶為欺詐的概率為0.4,則優勢odds為( )?

A. 0.4

B .2 / 3

C. 3 / 2

D. 0.6

答案:B 解析:該題考核了二分類變量分析的基礎知識。Odds的定義是顯性結果的概率比上非顯性結果的概率,因此為0.4 / 0.6,等 于2 / 3。

2. 建立邏輯回歸時,為什么有時候需要對連續變量進行分箱處理?

A. 避免變量的共線性

B. 捕獲原始連續變量和被解釋變量之間非線性關系

C. 避免異常值影響

D. 修正殘差非正態分布

答案:BC 解析:如果發現解釋變量與反應變量之間相關,但又不呈現線性關系時,往往會對解釋變量進行分箱,同時分箱也能夠消除極端值。 因此選BC。



點擊CDA題庫鏈接,獲取免費版CDA題庫入口,??荚図樌?,快速拿證!



數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢