
SAS中的聚類分析方法總結
說起聚類分析,相信很多人并不陌生。這篇原創博客我想簡單說一下我所理解的聚類分析,歡迎各位高手不吝賜教和拍磚。
按照正常的思路,我大概會說如下幾個問題:
1. 什么是聚類分析?
2. 聚類分析有什么用?
3. 聚類分析怎么做?
下面我將分聚類分析概述、聚類分析算法及sas實現、案例三部分來系統的回答這些問題。
聚類分析概述
1. 聚類分析的定義
中國有句俗語叫“物以類聚,人以群分”——剔除這句話的貶義色彩。說白了就是物品根據物品的特征和功用可以分門別類,人和人會根據性格、偏好甚至利益結成不同的群體。分門別類和結成群體之后,同類(同群)之間的物品(人)的特征盡可能相似,不同類(同群)之間的物品(人)的特征盡可能不同。這個過程實際上就是聚類分析。從這個過程我們可以知道如下幾點:
1) 聚類分析的對象是物(人),說的理論一點就是樣本
2) 聚類分析是根據物或者人的特征來進行聚集的,這里的特征說的理論一點就是變量。當然特征選的不一樣,聚類的結果也會不一樣;
3) 聚類分析中評判相似的標準非常關鍵。說的理論一點也就是相似性的度量非常關鍵;
4) 聚類分析結果的好壞沒有統一的評判標準;
2. 聚類分析到底有什么用?
1) 說的官腔一點就是為了更好的認識事物和事情,比如我們可以把人按照地域劃分為南方人和北方人,你會發現這種分法有時候也蠻有道理。一般來說南方人習慣吃米飯,北方習慣吃面食;
2) 說的實用一點,可以有效對用戶進行細分,提供有針對性的產品和服務。比如銀行會將用戶分成金卡用戶、銀卡用戶和普通卡用戶。這種分法一方面能很好的節約銀行的資源,另外一方面也能很好針對不同的用戶實習分級服務,提高彼此的滿意度。
再比如移動會開發全球通、神州行和動感地帶三個套餐或者品牌,實際就是根據移動用戶的行為習慣做了很好的用戶細分——聚類分析;
3) 上升到理論層面,聚類分析是用戶細分里面最為重要的工具,而用戶細分則是整個精準營銷里面的基礎。精準營銷是目前普遍接納而且被采用的一種營銷手段和方式。
3. 聚類分析的流程是怎樣的?
比較簡單的聚類分析往往只根據一個維度來進行,比如講用戶按照付費情況分成高端用戶、中端用戶和低端用戶。這 個只需要根據商業目的統計一下相關數據指定一個高端、中端和低端的分界點標準就可以。
如果是比較復雜的聚類分析,比如移動里面經常會基于用戶的多種行為(通話、短信、gprs流失扥等)來對用戶進行細分,這個就是比較復雜的用戶細分。如果是這樣的細分通常會作為一個比較標準的數據挖掘項目來執行,所以基本上會按照數據挖掘的流程來執行。具體分如下幾步:
1) 業務理解
主要是了解業務目標和數據挖掘的目標及執行計劃
2) 數據理解
主要是弄清楚可已取哪些變量數據,具體怎么定義
3) 數據整理
根據之前的定義提取需要的數據,并進行檢測異常數據,并對變量進行挑選及探索,比如最終要用那些變量來執行聚類算法、那些變量是離散變量,需要做特殊處理、
數據大概可以聚成幾類、類別形狀有不規則的情形嗎?
4) 建立模型
關鍵是選用什么樣的距離(相似性度量)和算法:
l 比如是樣本比較小,形狀也比較規則,可以選用層次聚類
l 比如樣本比較大,形狀規則,各類的樣本量基本相當,可以選用k-means算法
l 比如形狀規則,但是各類別之間的樣本點的密度差異很大,可以選用基于密度的算法
5) 模型評估
主要是評估聚類分析結果的好壞。實際上聚類分析在機器學習里面被稱之為無監督學習,是沒有大家公認的評估方法的。所以更多會從業務可解釋性的角度去評估
聚類分析的好壞;
6) 模型發布
主要是根據聚類分析的結果根據不同的類的特診去設計不同的產品、服務或者渠道策略,然后去實施營銷
4. 具體在sas里面如何執行?
通過前面的講解我們已經知道,聚類分析涉及到如下6步,對應著6步SAS都會有相應的過程來執行。
1) 距離的計算:proc distance
2) 數據標準化:proc stdize
3) 聚類變量的選擇:proc varclus
4) 初始類別數的選擇:proc mds和proc princomp
5) 不規則形狀的變換:proc aceclus
6) 算法的選擇:層次聚類-proc cluster 劃分型聚類-proc fastclus(k-means)和
密度型聚類-proc modeclus
7) 類別特征描述:proc means
以上四個部分就從是什么、為什么、怎么樣三個角度對聚類分析做了簡單的介紹。接下來的帖子我會重點介紹SAS中各種聚類算法的差異、應用范圍及實際的案例。
5. 用proc distance做什么?
我們知道數據變量分四類:名義變量、次序變量、interval變量和ritio變量。但sas里面目前的聚類算法都要求變量時ratio變量。那想要對離散變量進行聚類怎么呢?一種想法自然是講所有的離散變量都轉成0-1變量。這會有如下幾個問題:
1) 變量的信息可能會有損失,比如次序型變量轉成0-1變量后,次序信息就很難保留;
2) 當離散變量的取值非常多時,轉成0-1變量后生成的新變量也會非常多,這樣也會造成很多處理上的不便;
3) 0-1變量也沒法做標準化等等一些運算,因為這種運算其實是沒有意義的
那該如何處理離散變量的聚類呢?答案是用proc distance。我們知道聚類過程中首先是從計算距離或者相似度開始的。一個很自然的想法就是針對離散變量定義有意義的距離(對離散變量和連續變量混合類型的數據)。Proc distance就是用來算這種距離的一個很好的過程。距離或者相似度可以看成是連續數據,自然就可以用sas里面的聚類算法了。
6. 用proc stdize做什么?
前面說過聚類算法首先要算的距離,然后通過距離來執行后續的計算。在距離計算的過程方差比較大的變量影響會更大,這個通常不是我們希望看到。所以非常有必要講參與聚類的變量轉換成方差盡量相同。Proc stdize就能實現這種功能。Proc stdize不僅提供了將變量轉換了均值為0,方差轉換為1的標準化,還提供了很多其它類型的標準化。比如,range標準化(變量減去最小值除以最大值和最小值得差)
7. 用proc varclus做什么?
在做回歸分析的時候,我們知道變量過多會有兩個問題:
1) 變量過多會影響預測的準確,尤其當無關緊要的變量引入模型之后;
2) 變量過多不可避免的會引起變量之前的共線性,這個會影響參數估計的精度
聚類分析實際上也存在類似的問題,所以有必要先對變量做降維。說到降維,馬上有人會說這個可以用主成分啊,這個的確沒錯。但是主成分的解釋性還是有點差。尤其是第二主成分之后的主成分。那用什么比較好呢?答案是proc varclus——斜交主成分。
我們常說的主成分實際上正交主成分。斜交主成分是在正交主成分的基礎上再做了一些旋轉。這樣得到的主成分不僅能保留主成分的優點(主成分變量相關程度比較低)。另外一方面又能有很到的解釋性,并且能達到對變量聚類的效果。使同類別里面的變量盡可能相關程度比較高,不同類別里面的變量相關程度盡可能低。這樣根據一定的規則我們就可以在每個類別里面選取一些有代表性的變量,這樣既能保證原始的數據信息不致損失太多,也能有效消除共線性。有效提升聚類分析的精度。
8. 用proc mds 和proc princomp做什么?
將原始數據降到兩維,通過圖形探測整個數據聚類后大致大類別數
9. 用proc aceclus做什么?
聚類算法尤其是k-means算法要求聚類數據是球形數據。如果是細長型的數據或者非凸型數據,這些算法的表現就會相當差。一個很自然的變通想法就是,能不能將非球形數據變換成球形數據呢?答案是可以的。這就要用到proc aceclus。
10. 標準化對聚類分析到底有什么影響?
1) 在講影響之前先羅列一下proc stdize里面的標準化方法吧
2) 標準化對聚類分析的影響
從圖1中不太容易看清楚標準化對于聚類分析的影響
從圖2可以清晰的看到標準化對于聚類分析的影響
3) 各種標準化方法的比較
一個模擬數據的例子,模擬數據有三個類別,每個類別有100個樣本。我們比較了各種標準化方法之后再進行聚類的誤判情況,可以大概看出各種標準化方法的差異。但此例并不能說明以下方法中誤分類數小的方法就一定優與誤分類數大的方法。有時候還跟數據本身的分布特征有關。這個例子也提醒我們有時候我們常用的std和range標準化并不見得是最好的選擇。
proc stdize data=compact method=std
out=scompacted2;
var x y;
run;
title ‘標準化后的模擬數據1’;
proc gplot data=scompacted2;
plot y*x=c;
symbol1 c=blue;
symbol2 c=black;
symbol3 c=red;
run;
/*********************************************************/
/*2.create result table*/
/*********************************************************/
data result;
length method$ 12;
length misclassified 8;
length chisq 8;
stop;
run;
%let inputs=x y;
%let group=c;
%macro standardize(dsn=,nc=,method=);
title “&method”;
%if %bquote(%upcase(&method))=NONE %then %do;
data temp;
set &dsn;
run;
%end;
%else %do;
proc stdize data=&dsn method=&method out=temp;
var &inputs;
run;
%end;
proc fastclus data=temp maxclusters=&nc least=2
out=clusout noprint;
var &inputs;
run;
proc freq data=clusout;
tables &group*cluster / norow nocol nopercent
chisq out=freqout;
output out=stats chisq;
run;
data temp sum;
set freqout end=eof;
by &group;
retain members mode c;
if first.&group then do;
members=0; mode=0;
end;
members=members+count;
if cluster NE . then do;
if count > mode then do;
mode=count;
c=cluster;
end;
end;
if last.&group then do;
cum+(members-mode);
output temp;
end;
if eof then output sum;
run;
proc print data=temp noobs;
var &group c members mode cum;
run;
data result;
merge sum (keep=cum) stats;
if 0 then modify result;
method = “&method”;
misclassified = cum;
chisq = _pchi_;
pchisq = p_pchi;
output result;
run;
%mend standardize;
%standardize(dsn=compact,nc=3,method=ABW(.5));
%standardize(dsn=compact,nc=3,method=AGK(.9));
%standardize(dsn=compact,nc=3,method=AHUBER(.5));
%standardize(dsn=compact,nc=3,method=AWAVE(.25));
%standardize(dsn=compact,nc=3,method=EUCLEN);
%standardize(dsn=compact,nc=3,method=IQR);
%standardize(dsn=compact,nc=3,method=L(1));
%standardize(dsn=compact,nc=3,method=L(2));
%standardize(dsn=compact,nc=3,method=MAD);
%standardize(dsn=compact,nc=3,method=MAXABS);
%standardize(dsn=compact,nc=3,method=MEAN);
%standardize(dsn=compact,nc=3,method=MEDIAN);
%standardize(dsn=compact,nc=3,method=MIDRANGE);
%standardize(dsn=compact,nc=3,method=NONE);
%standardize(dsn=compact,nc=3,method=RANGE);
%standardize(dsn=compact,nc=3,method=SPACING(.3));
%standardize(dsn=compact,nc=3,method=STD);
%standardize(dsn=compact,nc=3,method=SUM);
%standardize(dsn=compact,nc=3,method=USTD);
proc sort data=result;
by misclassified;
run;
title ‘匯總數據’;
title2 ‘聚類判定類別錯誤樣本數排序’;
proc print data=result;
run;
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《劉靜:10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda ...
2025-04-23