熱線電話:13121318867

登錄
首頁精彩閱讀不平衡學習算法的評估指標
不平衡學習算法的評估指標
2018-04-05
收藏

不平衡學習算法的評估指標

先來看下類不平衡的定義:對于二元分類問題,存在類別分布不平衡的問題,即某一類別的樣本數量遠遠多于另一類(分別稱為多數類和少數類)。具有這樣特征的二元分類數據集被稱為不平衡的(Imbalanced Data),有時候也稱(skewed data)。

分類錯誤率作為傳統分類學習的評估指標,顯然無法適應于不平衡分類問題。至于為什么,這里給大家舉個例子解釋一下:



看上面這個例子,使用的邏輯回歸模型的測試集上的分類正確率能夠達到99%,我們會認為在這是一個相當不錯的性能,但是如果考慮到測試集上只有0.5%的人真的有癌癥,那么如果我直接讓所有的預測結果都為y=0,即整個測試集都預測為沒有癌癥,那么分類的正確率會高達99.5%,但是顯然這個模型泛化能力巨差。

一、評估指標一:precision、recall、F-Measure
那么就需要新的評估指標來評估這個模型的性能,下面介紹precision(精度,又叫查準率)和recall(召回率,又叫查全率)。
對于一個二元分類問題,稱少數類為P(positive),即正類,多數類為N(negative),即負類。那么根據實際類別和預測類別存在一個混淆矩陣(confusion matrix),如下:



根據上述混淆矩陣,可得精度和召回率的定義:


其中,true positive(TP)稱為真正,就是實際類別為正,預測類別也為正。false positive(FP)稱為假正,其為實際類別為負,預測類別為正,因為是假正。true negative為真負,false negative為假負。

但是有了這兩個指標,該如何利用這兩個指標去評估模型的性能呢,因為這兩個指標往往不能同時兼顧,有時一個分類器可能有很高的精度但召回率很低,又或有很高的召回率但是精度很差??慈缦乱粋€例子:



那么,這三個算法中該如何選擇呢?因此,為了折中precision和recall,引進了一個新的評估指標F-Measure,其定義如下:


通常取值為1,因此就有了常用的,其定義如下:


因此,能夠看出F-Measure是對precision和recall的折中。一般來說,F-Measure的值越高,認為分類器性能越好。

二、評估指標二:接受者操作特征曲線(ROC)
還有一種更為常用的評估指標:接受者操作特征曲線(ROC),其圖像如圖所示(此圖版權所有,不得隨意盜用):




如上圖所示的ROC示意圖,其以假正率(False Positive Rate)為x軸,真正率(True Positive Rate)為y軸。如上圖所示,其中點D(0,1)代表最理想的分類器性能,分布在對角線上的點,如點F代表隨機猜測的分類器,而在對角線下方的點表示其分類器性能比隨機猜測還要差。當分類器輸出一系列連續值時能夠畫出ROC曲線如L1、L2,曲線下方的面積即AUC(areas under the curve)可以用于評估一個分類器的性能,AUC的值越大代表分類其性能越好。

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢