
Bi這里是的意思就是Binary,二進制的意思,所以有時候叫這個算法為二進Kmeans算法。為什么我們需要用BiKmeans呢,就是為了解決初始化k個隨機的質心點時其中一個或者多個點由于位置太極端而導致迭代的過程中消失的問題。BiKmeans只是Kmeans其中一個優化方案,其實還是有很多優化的方案,這里BiKmeans容易講解和理解,并且容易用numpy, pandas實現。
那為什么二進Kmeans算法可以有效的解決這個問題呢。我們需要從二進Kmeans的基礎看是講起。其實BiKmeans的迭代過程類似于一個決策樹。首先我們看一下K-means聚類等算法的步驟。
利用之前寫好的Kmeans算法包,設置k為2。所以每次傳入一個數據集的時候,都是進行2分類。
假設我們預先想分出K個簇。
那這個算法其實就是非常的類似決策樹的算法。在決策樹節點由父節點劃分成子節點的過程中,用的是gini不純度來判斷是否需要劃分,我們選擇不純度差值最大的那個特征來做劃分。這里也類似,我們最后的目標是最小化SSE,所以對每一個簇來說,都可以得出該簇在劃分出成2個簇之后總體上SSE降低了多少,我們需要做的就是保持其他的簇不變,選取的就是那個能夠最大程度的降低SSE的那個簇進行Kmeans二分類。
那個算法里面還是有個缺陷,就是在算法的過程中,會對每個簇重復計算劃分后SSE的差值,所以這里我在對每個簇做劃分后,記錄下它的SSE差值,后期就可以直接使用SSE,不用重新再計算一遍了。
我們首先用決策樹的概念來看下BiKmeans,我們目標是分成4個簇,首先有我們有我們的根節點,也就是我們的整體的數據集,假設這個數據集的SSE為100.
首先先讀取數據,讀取的是上次我們在Kmeans中間過程最后展示原始Kmeans理論缺陷的那組數據。
from Kmeans_pack import *
r = 4 k = 3 x , y = make_blobs(n_samples = 400, cluster_std = [0.2, 0.4, 0.4, 0.4], centers = [[0.3,-1],[1,1],[-1,1], [-1,-1]], random_state = r ) np.random.seed(r) sim_data = pd.DataFrame(x, columns = ['x', 'y']) sim_data['label'] = y dataset = sim_data.copy()
現在我們嘗試的將數據只做一次二分Kmeans的迭代,查看結果,這個時候會有兩種結果
在這兩個情況下,我們看到2分Kmeans可以將當前數據集分成2個簇,緊接著我們就需要嘗試分別對藍色和黃色的簇進行2分Kmeans查看每個簇劃分后SSE下降了少。我們會首先寫一個Split函數,對每個傳進去的數據集進行2分Kmeans。但是這里需要注意是否是第一次做劃分,就比如上面的情況。
這里我們首先有個split函數,專門用來對傳入的數據做2分Kmeans,算出聚類前和聚類后的SSE,比如說假如這個時候我們有x和y,\bar{x}xˉ和\bar{y}yˉ為x和y的平均值
\left[ \begin{matrix} (x_{1}-\bar{x})^2 + (y_{1}-\bar{y})^2 \\ (x_{2}-\bar{x})^2 + (y_{2}-\bar{y})^2 \\ (x_{3}-\bar{x})^2 + (y_{3}-\bar{y})^2 \end{matrix} \right]??(x1?xˉ)2+(y1?yˉ)2(x2?xˉ)2+(y2?yˉ)2(x3?xˉ)2+(y3?yˉ)2??
def Split(dataset): #假設當前數據不是第一次二分Kmeans,就是說傳進來的是整體的數據集,當前的質心點就是每個特征的平均值 temp_data = dataset.loc[:, dataset.columns != 'label'].copy() #計算當前數據集的SSE current_error = np.power(temp_data - temp_data.mean(), 2).sum().sum() #對數據集做二分Kmeans curr_group, SSE_list, centers = Kmeans_regular(temp_data, k = 2) #記錄二分后的SSE after_split_error = SSE_list[-1] #已經有了curr_group將二分類后的數據集先拿出來 clusters = list(dataset.groupby(curr_group)) #這里有非常非常少的情況會出現二分Kmeans中初始的質心點其中一個由于離所有的都太遠,導致丟失的情況 #所以這里多加了一個判斷,假如其中一個質心掉了,那上面給的clusters只有一個而不是兩個 #在這個情況下,dataset沒有被成功二分類,我們需要將dataset自身給return,進行下一次迭代,肯定有一次迭代能成功分出2個簇 #所以在這個情況下entropy就是current_error, cluster1就是dataset自己,cluster2為空 if len(clusters) == 1: entropy = current_error return [entropy, dataset, None, current_error] #分別取出2個簇 cluster1, cluster2 = [i[1] for i in clusters] #計算這個簇做了二分Kmeans后SSE下降的多少 entropy = current_error - after_split_error #最后返回結果,返回當前這個簇二分后的SSE差值,分出的簇1和簇2,還有當前這個簇的SSE return [entropy, cluster1, cluster2, current_error]
這個函數寫好之后我們來測試一下,當前我們將所有的數據全部傳進去后,給出的結果
entropy, cluster1, cluster2, current_error = Split(dataset) entropy, cluster1.shape[0], cluster2.shape[0], current_error
(432.9176440191153, 200, 200, 813.3842612925762)
當前數據集做完二分后整體SSE由原來的813,下降了432.92。
接下來就是需要完成2分Kmeans的迭代過程
def bi_iterate(dataset, k = 4): #首先準備一個空的cluster_info_list,這個list是用來存二分后的結果,里面每一個元素都是一個簇 #對于每個元素來說,它代表的是個簇,里面記錄的這個簇的[entropy, cluster1, cluster2, current_error] #也就是每個簇的[SSE差值,第一個二分后的簇,第二個二分后的簇,當前簇的SSE] cluster_info_list = [] #使用while做循環直到cluster_info_list里面一共達到k個簇的時候停止 while len(cluster_info_list) < k: #假如當前我們是第一次迭代的話也就是cluster_info_list是空list的話做以下操作 if len(cluster_info_list) == 0: #直接用Split函數,將整體數據集放入cluster_info_list里,然后下面的操作都不用,continue進入下一個循環 cluster_info_list.append(Split(dataset)) continue #首先將cluster_info_list最后一個元素取出來,cluster_info_list里面是所有簇的信息 #我們后面會對cluster_info_list做sort,由于cluster_info_list里面每個元素的第一位是SSE差值 #所以我們做完sort后,最后一個元素肯定是SSE差值(entropy)最大的那一個,也就是我們需要下一步做二分的簇 #將最后一個元素里的2個clusters取出來后,將這個當前在cluster_info_list里SSE最大的一個簇刪除掉(pop方法) #取而代之的是Split(cluster1)和Split(cluster2),也是就嘗試著對新的兩個cluster嘗試去算SSE差值 cluster1, cluster2 = cluster_info_list[-1][1:-1] cluster_info_list.pop(-1) #將Split(cluster1)和Split(cluster2)的結果追加到cluster_info_list #注意假如只有cluster2給出的是None,則碰到二分類不成功的情況,cluster1還為原來上一次dataset,cluster2為空 #不將cluster2追加到cluster_info_list當中 cluster_info_list.append(Split(cluster1)) if cluster2 is not None: cluster_info_list.append(Split(cluster2)) #整體的cluster_info_list進行一次sort,找出當前所有的簇中,哪一個簇的SSE差值最大 #這里我們是需要對整體cluster_info_list做sort,因為新追加進去的2個心cluster的SSE差值可能沒有cluster_info_list里已經記錄的簇的SSE大。 cluster_info_list.sort() #進入下一個循環 return cluster_info_list
將總共的代碼都放在一起,內容不多,和網上的代碼相比的話,簡單易懂量少,也避免了效率較低的for循環。
from Kmeans_pack import * def Split(dataset): temp_data = dataset.loc[:, dataset.columns != 'label'].copy() current_error = np.power(temp_data - temp_data.mean(), 2).sum().sum() curr_group, SSE_list, centers = Kmeans_regular(temp_data, k = 2) after_split_error = SSE_list[-1] clusters = list(dataset.groupby(curr_group)) if len(clusters) == 1: entropy = current_error return [entropy, dataset, None, None, current_error] cluster1, cluster2 = [i[1] for i in clusters] entropy = current_error - after_split_error return [entropy, cluster1, cluster2, centers, curr_group, current_error, dataset] def bi_Kmeans(dataset, k = 4): cluster_info_list = [] while len(cluster_info_list) < k: if len(cluster_info_list) == 0: cluster_info_list.append(Split(dataset)) continue cluster1, cluster2 = cluster_info_list[-1][1:3] cluster_info_list.pop(-1) cluster_info_list.append(Split(cluster1)) if cluster2 is not None: cluster_info_list.append(Split(cluster2)) cluster_info_list.sort() return cluster_info_list
我們測試一下代碼,返回的cluster_info_list里面所有的元素都是簇的信息,每個元素的最后一位都是這個簇的簇內SSE,所以我們可以用列表解析的方法將每個元素的最后一位取出來,進行相加就能得到BiKmeans最后的結果給出的整體的SSE,我們可以看出在數據集要4個簇的前提下,我們SSE最后為95.64
np.random.seed(1) cluster_info_list = bi_Kmeans(dataset, k = 4)
我們也可以將這個結果和原始寫好的Kmeans_regular做比較
regular_SSE = [] bi_SSE = [] for i in range(50): curr_group, SSE_list, centers = Kmeans_regular(dataset, k = 4) cluster_info_list = bi_Kmeans(dataset, k = 4) bi_sse = sum([i[-1] for i in cluster_info_list]) regular_SSE.append(SSE_list[-1]) bi_SSE.append(bi_sse)
data_compare = pd.DataFrame({'ReKmeans':regular_SSE,'BiKmeans':bi_SSE}) data = [go.Scatter(x = data_compare.index + 1, y = data_compare[i], mode = 'lines+markers', name = i ) for i in data_compare.columns] layout = go.Layout(title = '原始Kmeans與二分Kmeans的SSE穩定性比較', xaxis = {'title' : '次數'}, yaxis = {'title' : 'SSE值'}, template = 'plotly_white' ) fig = go.Figure(data = data, layout = layout) #fig.show()
我們這里隨機的跑30次,來比較最后2個算法所得到的SSE,我們這里主要查看穩定性??梢詮膱D中看出對于原始的(RegularKmeans)的SSE非常不穩定,而對于BiKmeans來說的話,SSE非常穩定,一直保持在大約95左右。這里就體現出的BiKmeans的優點,可以很大概率的(不是絕無可能)保證每次隨機生成的2個質心點不會因為太極端而導致其中一個丟失的問題,從而導致最后SSE很高,結果陷入局部最優的這樣一個問題。
這里我們不會像Kmeans中間過程那樣給出詳細的從隨機選取的質心點到收斂的過程。我們這個給出一個大致的BiKmeans中間過程,有助于同學們理解。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24