
R語言主成分分析
解決自變量之間的多重共線性和減少變量個數
根據主成分分析的原理,它一方面可以將k個不獨立的指標變量通過線性變換變成k個相互獨立的新變量,這是解決多重共線性問題的一個重要方法;另一方面。主成分分析可以用較少的變量取代較多的不獨立的原變量,減少分析中變量的個數。概括地說,主成分分析有以下幾方面的應用。
I.相關R函數以及實例
主成分分析相關的R函數:
prinpomp() 作主成分分析最重要的函數
summary() 提取主成分的信息
loadings() 顯示主成分分析或因子分析中的loadings(載荷),在這里是主成分對應的各列
predict() 預測主成分的值
screeplot() 畫出主成分的碎石圖
biplot() 畫出數據關于主成分的散點圖和原坐標在主成分下的方向
例1. 肝病患者功能指標的主成分分析:
某醫學院測得20例肝病患者的4項肝功能指標:SGPT(轉氨酶)、肝大指數、ZnT(硫酸鋅濁度)和AFP(胎甲球蛋白),分別用X1-X4表示,研究數據見以下程序,試進行主成分分析
#從sas導出數據存為csv格式,輸入數據
princomp1 <- read.csv("princomp1.csv",header=T)
#生成相關矩陣 p513
cor(princomp1)
#作主成分分析
princomp1.pr <- princomp(princomp1,cor = TRUE)
#或者用 princomp1.pr <- princomp(~X1+X2+X3+X4,data=princomp1,cor=TRUE)
#顯示分析結果,loadings(載荷)
summary(princomp1.pr,loadings = TRUE)
##predict(princomp1.pr),顯示各樣本的主成分的值,數據太多不顯示
#畫出主成分的碎石圖,主成分特征值的大小構成的陡坡圖
screeplot(princomp1.pr,type = "lines")
#畫出數據關于前兩個主成分的散點圖和原坐標在主成分下的方向(比如,傾向第一主成分,可選擇4、9、8等編號。箭頭代表xi在主成分下的方向)
biplot(princomp1.pr)
summary()列出結果的重要信息,Standard deviation行表示的是主成分的標準差,也就是特征值λ1,λ2,λ3,λ4的開方
Proportion of Variance行表示的是方差的貢獻率
Cumulative Proportion行表示的是方差的累計貢獻率
前兩個特征值均大于1,第3個接近于1,第4個遠小于1。特征值越大,它所對應的主成分變量包含的信息就越多,第1-4個主成分的貢獻率分別為42.95%、27.33%、24.53%、5.17%,前3個主成分就包含了原來4個指標的94.82的信息,即能夠解釋94.82%的方差。因此,確定主成分的個數為3比較合理
loadings=TRUE,則結果列出了loadings(載荷)的內容,它實際上是主成分對于原始變量X1,X2,X3,X4的系數。也是特征值對應的特征向量,它們是線性無關的單位向量。第1列表示第1主成分z1的得分系數,依次類推。據此可以寫出由標準化變量所表達的各主成分的關系式,即:
Z1 = 0.700X1 +0.690X2 +0.163X4
Z2、Z3、Z4同上
由碎石圖可以看出 第二個主成分之后 圖線變化趨于平穩 因此可以選擇前兩個主成分做分析
在各主成分的表達式中,各標準化指標Xi前面的系數與該主成分所對應的特征值之平方根的乘積是該主成分與該指標之間的相關系數。系數的絕對值越大,說明該主成分受該指標的影響也越大。因此,決定第1主成分Z1大小的主要為X1和X2,即SGPT和肝大指數;決定第2主成分Z2大小的主要為X3,即ZnT;決定第3主成分Z3大小的主要為X4,即AFP;決定第4主成分大小的主要為X1和X2,但作用相反。這提示:Z1指向急性炎癥;Z2指向慢性炎癥;Z3指向原發性肝癌可疑;Z4貢獻率很小,僅作參考,它可能指向其他肝病。
II.主成分分析的應用
除了減少自變量的個數外,主成分分析可以用來解決自變量共線性的問題。線性回歸分析要求自變量是相互獨立的,但是在實際應用中,經常會遇到自變量相關的問題。這時,一個好的可行的方法就是借助于主成分分析,用主成分回歸來求回歸系數。即先用主成分分析法計算出主成分表達式和主成分得分變量,而主成分得分變量相互獨立,因此可以將因變量對主成分得分變量回歸,然后將主成分的表達式代回回歸模型中,即可得到標準化自變量與因變量的回歸模型,最后將標準化自變量轉為原始自變量。
例2. 影響女大學生肺活量因素的多元回歸分析
某學校20名一年級大學生體重(公斤)、胸圍(厘米)、肩寬(厘米)及肺活量(升)實測值如下表所示,試對影響女大學生肺活量的有關因素作多元回歸分析
1) 模型共線性診斷
princomp2 <- read.csv("princomp2.csv",header=T)
#作線性回歸
lm.sol<-lm(y~x1+x2+x3, data=princomp2)
summary(lm.sol)
由summary結果,按三個變量得到回歸方程: Y=-4.71 + 0.06X1 +0.036X2 +0.049X3
從參數估計值t檢驗的結果可以看出:變量x1和x2的參數估計值顯著性均<0.05,說明參數估計值與0有顯著的區別,而x3的參數估計值與0無顯著的區別。
共線性診斷
#共線性診斷
#利用kappa函數,計算自變量矩陣的條件數;從實際經驗的角度,一般若條件數<100,則認為多重共線性的程度很小,若100<=條件數<=1000,則認為存在中等程度的多重共線性,若條件數>1000,則認為存在嚴重的多重共線性.
x <- cor(princomp2)
kappa(x, exact=T)
#可以計算X矩陣的秩qr(X)$rank,如果不是滿秩的,說明其中有Xi可以用其他的X的線性組合表示
qr(princomp2)$rank
#相關系數矩陣
cor(princomp2[,-c(0,4)])
#特征根法。根據矩陣性質,矩陣的行列式等于其特征根的連乘積。因而當行列式|X′X|→0,矩陣X′X至少有一個特征根近似等于零。說明解釋變量之間存在多重共線性。
#輸出的內容分別為特征值和相對應的特征向量,矩陣中的每一列都為特征向量。
x <- cbind(rep(1,length(princomp2[,1])),princomp2[,-c(0,4)])
x <- as.matrix(x) #以1,x1,x2,x3為四列的矩陣
eigen(t(x)%*%x) #x的轉置*x 的特征向量
#條件指數法(Conditional Index,CI)。條件指數CI=(λmax/λmin)0.5,其中λmax,λmin分別是矩陣XX′的最大和最小特征根。條件指數度量了矩陣XX′的特征根散布程度,可以用來判斷多重共線性是否存在以及多重共線性的嚴重程度。一般認為,當0<CI<10 時,X 沒有多重共線性;當10<CI<100 時, X存在較強的多重共線性;當CI>100 時,存在嚴重的多重共線性。
#條件判別法,計算的條件指數值
CI <- eigen(t(x)%*%x)$values[1]/eigen(t(x)%*%x)$value[3] #value指eigen()函數的特征值value的第一個值
CI
#方差膨脹因子(Variance Inflation Factors,VIF)。自變量j X 的方差擴大因子VIFj=Cjj=1/(1-Rj2),j=1,2,…p,其中C j j為(X ' X)???1中第 j個對角元素, R j 2為Xj為因變量,其余 p ???1個自變量為自變量的回歸可決系數,也即復相關系數。
#方差膨脹因子法.若變量膨脹因子都很大,則表明存在嚴重的多重共線性
library(car)
vif(lm.sol)
觀察特征向量,x2和x3出現0.91981490和0.999931723,這個結果接近1。如果一個模型中同時包含這兩個變量,得到的結果就會很不穩定,甚至產生誤導
2) 對原始變量主成分分析
#基本統計量,包括mean,sd,相關系數矩陣,相關系數矩陣的特征值特征向量
mean <- c( mean(princomp2$x1),mean(princomp2$x2),mean(princomp2$x3))
sd <- c(sd(princomp2$x1),sd(princomp2$x2),sd(princomp2$x3))
rbind(mean,sd)
cor(princomp2[,-c(0,4)]) #相關系數矩陣,設置[]就只取x1,x2,x3三列,不取y
eigen(cor(princomp2[,-c(0,4)])) #求princomp2[]的特征值和特征向量
#作主成分分析
princomp2.pr<-princomp(~x1+x2+x3, data=princomp2, cor=T)
summary(princomp2.pr, loadings=TRUE)
#predict(princomp2.pr) 各樣本的主成分的值,結果篇幅太長,略
從特征值和解釋比例來看,第一主成分和第二主成分的特征值很大,能夠解釋的因變量變動已經達到0.8827,因此,我們可以選擇前兩個主成分來表示3個指標的信息。用原始變量表達前兩個主成分的式子如下:
Z1=-0.585003X1-0.447445X2-0.676435X3
Z2=0.55658X1-0.828133X2+0.066442X3
其中Xi為標準指標變量,Xi = (xi-x均)/si, i=1,2,3
3) 對主成分得分變量進行回歸分析
# 預測樣本主成分, 并作主成分分析
pre<-predict(princomp2.pr)
princomp2$z1<-pre[,1]
princomp2$z2<-pre[,2]
princomp2$z3<-pre[,3]
lm.sol<-lm(y~z1+z2+z3, data=princomp2)
summary(lm.sol)
#write.csv(princomp2,"princomp2_test.csv")
模型檢驗的結果F值為21.23,顯著性P<0.001,拒絕原假設,說明主成分得分變量z1和z2均與因變量y具有顯著的相關關系
截距項和β1的t檢驗顯著性p值均<0.0001,說明主成分z1與y顯著相關,而β2的顯著性沒有意義(p=0.942),則因變量y在主成分上的線性回歸方程式:
Y=2.76300-0.309737 * z1
=2.76300-0.309737 * (-0.585003 * X1-0.447445 * X2-0.676435 * X3)
=2.76300 + 0.1811971 * X1 +0.1385903 * X2 + 0.2095169 * X3
#以x1,x2,x3為三列組成的矩陣A
A <- cbind(princomp2$x1,princomp2$x2,princomp2$x3)
#取x1,x2,x3和X1,X2,X3
x1 <- A[,1]
x2 <- A[,2]
x3 <- A[,3]
X1 <- (x1 - mean(princomp2$x1)) / sd(princomp2$x1)
X2 <- (x2 - mean(princomp2$x2)) / sd(princomp2$x2)
X3 <- (x3 - mean(princomp2$x3)) / sd(princomp2$x3)
#建模算得的結果
Y <- 2.76300 + 0.1811971 * X1 +0.1385903 * X2 + 0.2095169 * X3
Y #去除β2影響的回歸方程
Z <- -4.128216 + 0.04583787 * x1 + 0.02943588 * x2 + 0.06849709 * x3
Z #換算成用x1,x2,x3表示的式子
I <- -4.27585990 + 0.04774617 * x1 + 0.02930425 * x2 + 0.07038718 * x3
I #編寫計算系數的函數結果,沒有去除β2影響的回歸方程
X1=(x1-49.510)/3.953
X2=(x2-78.790000)/4.708212
X3=(x3-33.615000)/3.058771
將標準自變量還原為原始自變量,X1,X2,X3用x1,x2,x3表示,得到因變量y對原始自變量的回歸模型:
Y = 2.76300 + 0.1811971 * (x1-49.510)/3.953 + 0.1385903 * (x2-78.790000)/4.708212 + 0.2095169 * (x3-33.615000)/3.058771
= 2.76300 + 0.04583787 * (x1-49.51000) + 0.02943588 * (x2-78.79000) + 0.06849709 * (x3-33.615000)
即: Y= -4.128216 + 0.04583787 * x1 + 0.02943588 * x2 + 0.06849709 * x3
上述例子是先求summary(lm()),根據p值得到主成分,去除其他zi,得到回歸方程
我們還可以先確定主成分,只將主成分的預測值存放在數據框中,lm()函數中y~只對主成分,直接得到回歸方程
下面是這種方法回歸方程系數的計算函數:
編寫計算系數的函數
#這里得到回歸方程的系數,是沒有去除z2(β2)影響的,在上面用I表示
#作變換,得到原坐標下的關系表達式
beta<-coef(lm.sol); A<-loadings(princomp2.pr)
x.bar<-princomp2.pr$center; x.sd<-princomp2.pr$scale
coef<-(beta[2]*A[,1]+ beta[3]*A[,2])/x.sd
beta0 <- beta[1]- sum(x.bar * coef)
c(beta0, coef)
* 回歸方程為: Y = -4.27585990 + 0.04774617 x1 + 0.02930425 * x2 + 0.07038718 * x3 **
write.csv(princomp1,"write_princomp1.csv")
write.csv(princomp2,"write_princomp2.csv")
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24