
數據分析中常見的七種回歸分析以及R語言實現(三)---嶺回歸
我們在回歸分析的時候,古典模型中有一個基本的假定就是自變量之間是不相關的,但是如果我們在擬合出來的回歸模型出現了自變量之間高度相關的話,可能對結果又產生影響,我們稱這個問題為多重共線性,多重共線性又分為兩種,一種是完全多重共線性,還有一種是不完全多重共線性;
產生的原因有幾個方面
1、變量之間存在內部的聯系
2、變量之間存在共同的趨勢等
造成的后果分兩部分
完全多重共線性造成的后果
1、當自變量線性相關的時候,參數將無法唯一確定,參數的方差將趨近于無窮大,這時候無法使用最小二乘法
不完全多重共線性造成的后果
1、參數估計量的方差隨著多重共線性的嚴重程度的增加而增加,但是參數是可以估計的
2、進行統計檢驗時容易刪除掉重要解釋變量
因為當多重共線性的時候容易造成自變量對因變量不顯著,從模型中錯誤的剔除,這樣容易刪除重要解釋變量的設定;
3、參數的置信區間明顯擴大
因為由于存在多重共線性。我們的參數估計都有較大的標準差,因此參數真值的置信區間也將增大
那么我們怎么去判斷一個模型上存在多重共線性呢?
根據經驗表明,多重共線性存在的一個標志就是就模型存在較大的標準差,和較小的T統計量,如果一個模型的可決系數R^2很大,F檢驗高度限制,但偏回歸系數的T檢驗幾乎都不顯著,那么模型很可能是存在多重共線性了。因為通過檢驗,雖然各個解釋變量對因變量的共同影響高度顯著,但每個解釋變量的單獨影響都不顯著,我們無法判斷哪個解釋變量對被解釋變量的影響更大
1、可以利用自變量之間的簡單相關系數檢驗
這個方法是一個簡便的方法,一般而言,如果每兩個解釋變量的簡單相關系數一般較高,則可以認為是存在著嚴重的多重共線性
2、方差膨脹因子
在回歸中我們用VIF表示方差膨脹因子
表達式 VIF=1/(1-R^2)
隨著多重共線性的嚴重程度增強,方差膨脹因子會逐漸的變大,一般的當VIF>=10的時候,我們就可以認為存在嚴重多重共線性;
在R語言中car包中的vif()函數可以幫我們算出這個方差膨脹一找你
這就介紹這兩個了,其實還有好多方法,大家可以可以私底下查,或者和我一起交流;
多重共線性的解決辦法
因為存在多重共線性,我們還是擬合模型的;當然會有解決辦法,這里我就介紹一下常用的方法嶺回歸;其他的方法也有,這里就不說了;
這里就說說大概的思想,具體推導的步驟這里就不寫,有興趣的可以網上查查;在多重共線性十分嚴重下,兩個共線變量的系數之間的二維聯合分布是一個山嶺曲面,曲面上的每一個點對應一種殘差平方和,點的位置越高,相應的殘差平方和越小。因此山嶺最高點和殘差平方和的最小值相對應,相應的參數值便是參數的最小二乘法估計值,但由于多重共線性的存在最小二乘法估計量已經不適用,一個自然的想法就是應尋找其他的更適合的估計量,這種估計量既要具有較小的方差,又不能使殘差平方和過分偏離其極小值。在參數的聯合分布曲面上,能滿足這種要求的點只能沿著山嶺尋找,這就是嶺回歸法;
這個方法實質是犧牲了無偏性來尋求參數估計的最小方差性;
缺點:通常嶺回歸方程的R平方值會稍低于普通回歸分析,但回歸系數的顯著性往往明顯高于普通回歸,在存在共線性問題和病態數據偏多的研究中有較大的實用價值
這里使用可能要使用到car和MASS,由于謝老師已經寫了詳細的過程,這里我就全程照搬了,偷了個懶,寫個代碼過程其實也有些累的;
1 分別使用嶺回歸和Lasso解決薛毅書第279頁例6.10的回歸問題
cement <- data.frame(X1 = c(7, 1, 11, 11, 7, 11, 3, 1, 2, 21, 1, 11, 10), X2 = c(26,
29, 56, 31, 52, 55, 71, 31, 54, 47, 40, 66, 68), X3 = c(6, 15, 8, 8, 6,
9, 17, 22, 18, 4, 23, 9, 8), X4 = c(60, 52, 20, 47, 33, 22, 6, 44, 22, 26,
34, 12, 12), Y = c(78.5, 74.3, 104.3, 87.6, 95.9, 109.2, 102.7, 72.5, 93.1,
115.9, 83.8, 113.3, 109.4))
cement
## X1 X2 X3 X4 Y
## 1 7 26 6 60 78.5
## 2 1 29 15 52 74.3
## 3 11 56 8 20 104.3
## 4 11 31 8 47 87.6
## 5 7 52 6 33 95.9
## 6 11 55 9 22 109.2
## 7 3 71 17 6 102.7
## 8 1 31 22 44 72.5
## 9 2 54 18 22 93.1
## 10 21 47 4 26 115.9
## 11 1 40 23 34 83.8
## 12 11 66 9 12 113.3
## 13 10 68 8 12 109.4
lm.sol <- lm(Y ~ ., data = cement)
summary(lm.sol)
##
## Call:
## lm(formula = Y ~ ., data = cement)
##
## Residuals:
## Min 1Q Median 3Q Max
## -3.175 -1.671 0.251 1.378 3.925
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 62.405 70.071 0.89 0.399
## X1 1.551 0.745 2.08 0.071 .
## X2 0.510 0.724 0.70 0.501
## X3 0.102 0.755 0.14 0.896
## X4 -0.144 0.709 -0.20 0.844
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 2.45 on 8 degrees of freedom
## Multiple R-squared: 0.982, Adjusted R-squared: 0.974
## F-statistic: 111 on 4 and 8 DF, p-value: 4.76e-07
# 從結果看,截距和自變量的相關系數均不顯著。
# 利用car包中的vif()函數查看各自變量間的共線情況
library(car)
vif(lm.sol)
## X1 X2 X3 X4
## 38.50 254.42 46.87 282.51
# 從結果看,各自變量的VIF值都超過10,存在多重共線性,其中,X2與X4的VIF值均超過200.
plot(X2 ~ X4, col = "red", data = cement)
接下來,利用MASS包中的函數lm.ridge()來實現嶺回歸。下面的計算試了151個lambda值,最后選取了使得廣義交叉驗證GCV最小的那個。
library(MASS)
##
## Attaching package: 'MASS'
##
## The following object is masked _by_ '.GlobalEnv':
##
## cement
ridge.sol <- lm.ridge(Y ~ ., lambda = seq(0, 150, length = 151), data = cement,
model = TRUE)
names(ridge.sol) # 變量名字
## [1] "coef" "scales" "Inter" "lambda" "ym" "xm" "GCV" "kHKB"
## [9] "kLW"
ridge.sol$lambda[which.min(ridge.sol$GCV)] ##找到GCV最小時的lambdaGCV
## [1] 1
ridge.sol$coef[which.min(ridge.sol$GCV)] ##找到GCV最小時對應的系數
## [1] 7.627
par(mfrow = c(1, 2))
# 畫出圖形,并作出lambdaGCV取最小值時的那條豎直線
matplot(ridge.sol$lambda, t(ridge.sol$coef), xlab = expression(lamdba), ylab = "Cofficients",
type = "l", lty = 1:20)
abline(v = ridge.sol$lambda[which.min(ridge.sol$GCV)])
# 下面的語句繪出lambda同GCV之間關系的圖形
plot(ridge.sol$lambda, ridge.sol$GCV, type = "l", xlab = expression(lambda),
ylab = expression(beta))
abline(v = ridge.sol$lambda[which.min(ridge.sol$GCV)])
par(mfrow = c(1, 1))
# 從上圖看,lambda的選擇并不是那么重要,只要不離lambda=0太近就沒有多大差別。
# 下面利用ridge包中的linearRidge()函數進行自動選擇嶺回歸參數
library(ridge)
mod <- linearRidge(Y ~ ., data = cement)
summary(mod)
##
## Call:
## linearRidge(formula = Y ~ ., data = cement)
##
##
## Coefficients:
## Estimate Scaled estimate Std. Error (scaled) t value (scaled)
## (Intercept) 83.704 NA NA NA
## X1 1.292 26.332 3.672 7.17
## X2 0.298 16.046 3.988 4.02
## X3 -0.148 -3.279 3.598 0.91
## X4 -0.351 -20.329 3.996 5.09
## Pr(>|t|)
## (Intercept) NA
## X1 7.5e-13 ***
## X2 5.7e-05 ***
## X3 0.36
## X4 3.6e-07 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Ridge parameter: 0.01473, chosen automatically, computed using 2 PCs
##
## Degrees of freedom: model 3.01 , variance 2.84 , residual 3.18
# 從模型運行結果看,測嶺回歸參數值為0.0147,各自變量的系數顯著想明顯提高(除了X3仍不顯著)
最后,利用Lasso回歸解決共線性問題
library(lars)
## Loaded lars 1.2
x = as.matrix(cement[, 1:4])
y = as.matrix(cement[, 5])
(laa = lars(x, y, type = "lar")) #lars函數值用于矩陣型數據
##
## Call:
## lars(x = x, y = y, type = "lar")
## R-squared: 0.982
## Sequence of LAR moves:
## X4 X1 X2 X3
## Var 4 1 2 3
## Step 1 2 3 4
# 由此可見,LASSO的變量選擇依次是X4,X1,X2,X3
plot(laa) #繪出圖數據分析培訓
summary(laa) #給出Cp值
## LARS/LAR
## Call: lars(x = x, y = y, type = "lar")
## Df Rss Cp
## 0 1 2716 442.92
## 1 2 2219 361.95
## 2 3 1918 313.50
## 3 4 48 3.02
## 4 5 48 5.00
# 根據課上對Cp含義的解釋(衡量多重共線性,其值越小越好),我們取到第3步,使得Cp值最小,也就是選擇X4,X1,X2這三個變量
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
CDA數據分析師證書考試體系(更新于2025年05月22日)
2025-05-26解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25