熱線電話:13121318867

登錄
首頁精彩閱讀機器學習模型評價指標及R實現
機器學習模型評價指標及R實現
2018-06-02
收藏

機器學習模型評價指標及R實現

1.ROC曲線

考慮一個二分問題,即將實例分成正類(positive)或負類(negative)。對一個二分問題來說,會出現四種情況。如果一個實例是正類并且也被 預測成正類,即為真正類(True positive),如果實例是負類被預測成正類,稱之為假正類(False positive)。相應地,如果實例是負類被預測成負類,稱之為真負類(True negative),正類被預測成負類則為假負類(false negative)。
列聯表如下表所示,1代表正類,0代表負類。

真正類率(true positive rate ,TPR), 也稱為 Sensitivity,計算公式為TPR=TP/ (TP+ FN),刻畫的是分類器所識別出的 正實例占所有正實例的比例。
    假正類率(false positive rate, FPR),計算公式為FPR= FP / (FP + TN),計算的是分類器錯認為正類的負實例占所有負實例的比例。
    真負類率(True Negative Rate,TNR),也稱為specificity,計算公式為TNR=TN/ (FP+ TN) = 1 - FPR。 在一個二分類模型中,對于所得到的連續結果,假設已確定一個閾值,比如說 0.6,大于這個值的實例劃歸為正類,小于這個值則劃到負類中。如果減小閾值,減到0.5,固然能識別出更多的正類,也就是提高了識別出的正例占所有正例的比例,即TPR,但同時也將更多的負實例當作了正實例,即提高了FPR。為了形象化這一變化,在此引入ROC。

ROC曲線正是由兩個變量1-specificity(x軸) 和 Sensitivity(y軸)繪制的,其中1-specificity為FPR,Sensitivity為TPR。隨著閾值的改變,就能得到每個閾值所對應的1-specificity和Sensitivity,最后繪制成圖像。
該圖像的面積如果越接近1,那么我們則認為該分類器效果越好。從直覺上來說,假設我們的預測全部100%正確,那么不管閾值怎么變(除了閾值等于0和1時),我們的Sensitivity(真正類)率永遠等于1,1-specificity(1-真負類率)永遠等于0,所以該圖就是個正方形,面積為1,效果最好。

樣例數據集:

library(ROCR)
data(ROCR.simple)
ROCR.simple<-as.data.frame(ROCR.simple)
head(ROCR.simple)
# predictions labels
# 1   0.6125478      1
# 2   0.3642710      1
# 3   0.4321361      0
# 4   0.1402911      0
# 5   0.3848959      0
# 6   0.2444155      1

繪制ROC圖:

pred <- prediction(ROCR.simple$predictions, ROCR.simple$labels)
perf <- performance(pred,"tpr","fpr")
plot(perf,colorize=TRUE)

2.AUC
AUC值就是ROC曲線下的面積,可以通過以下代碼計算:
pred <- prediction(ROCR.simple$predictions, ROCR.simple$labels)
auc.tmp <- performance(pred,"auc")
auc <- as.numeric(auc.tmp@y.values)
3.Recall-Precision(PR)曲線
同樣是一個二分類的模型的列聯表,我們可以定義:

然后我們通過計算不同的閾值,以Recall為X軸,Precision為Y軸繪制圖像。
PR圖可以有這樣的應用,引用一個例子[1]:
1. 地震的預測
對于地震的預測,我們希望的是RECALL非常高,也就是說每次地震我們都希望預測出來。這個時候我們可以犧牲PRECISION。情愿發出1000次警報,把10次地震都預測正確了;也不要預測100次對了8次漏了兩次。
2. 嫌疑人定罪
基于不錯怪一個好人的原則,對于嫌疑人的定罪我們希望是非常準確的。及時有時候放過了一些罪犯(recall低),但也是值得的。

對于分類器來說,本質上是給一個概率,此時,我們再選擇一個CUTOFF點(閥值),高于這個點的判正,低于的判負。那么這個點的選擇就需要結合你的具體場景去選擇。反過來,場景會決定訓練模型時的標準,比如第一個場景中,我們就只看RECALL=99.9999%(地震全中)時的PRECISION,其他指標就變得沒有了意義。

繪制代碼:

pred <- prediction(ROCR.simple$predictions, ROCR.simple$labels)
RP.perf <- performance(pred, "prec", "rec")
plot (RP.perf)
#查看閾值為0.1,0.5,0.9下的召回率和精確率
plot(RP.perf, colorize=T, colorkey.pos="top",
     print.cutoffs.at=c(0.1,0.5,0.9), text.cex=1,
     text.adj=c(1.2, 1.2), lwd=2)


一般這曲線越靠上,則認為模型越好。對于這個曲線的評價,我們可以使用F分數來描述它。就像ROC使用AUC來描述一樣。

4.F1分數

分數定義如下:

我們可以使用R計算F1分數:

pred <- prediction(ROCR.simple$predictions, ROCR.simple$labels)
f.perf <- performance(pred, "f")
plot(f.perf) #橫坐標為閾值的取值

5.均方根誤差RMSE

回歸模型中最常用的評價模型便是RMSE(root mean square error,平方根誤差),其又被稱為RMSD(root mean square deviation),其定義如下:


其中,yi是第i個樣本的真實值,y^i是第i個樣本的預測值,n是樣本的個數。該評價指標使用的便是歐式距離。
??RMSE雖然廣為使用,但是其存在一些缺點,因為它是使用平均誤差,而平均值對異常點(outliers)較敏感,如果回歸器對某個點的回歸值很不理性,那么它的誤差則較大,從而會對RMSE的值有較大影響,即平均值是非魯棒的。 所以有的時候我們會先剔除掉異常值,然后再計算RMSE。

R語言中RMSE計算代碼如下:

pred <- prediction(ROCR.simple$predictions, ROCR.simple$labels)
rmse.tmp<-performance(pred, "rmse")
rmse<-rmse.tmp@y.values
6.SAR

SAR是一個結合了各類評價指標,想要使得評價更具有魯棒性的指標。(cf. Caruana R., ROCAI2004):


其中準確率(Accuracy)是指在分類中,使用測試集對模型進行分類,分類正確的記錄個數占總記錄個數的比例:

pred <- prediction(ROCR.simple$predictions, ROCR.simple$labels)
sar.perf<-performance(pred, "sar")
7.多分類AUC[5]

將二類 AUC 方法直接擴展到多類分類評估中, 存在表述空間維數高、復雜性大的問題。 一般采用將多類分類轉成多個二類分類的思想, 用二類 AUC 方法來評估多類分類器的性能。Fawcett 根據這種思想提出了 F- AUC 方法[4], 該評估模型如下

其中AUC(i,rest)是計算 用 ” 1- a- r”方 法 得 到 的 每 個 二 類 分 類器的 AUC 值,“ 1- a- r”方法思想是 k 類分類問題構造 k 個二類分類器, 第 i 個二類分類器中用第 i 類的訓練樣本作為正例, 其他所有樣本作為負例。 p ( i) 是計算每個類在所有樣本中占有的比例,


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢