熱線電話:13121318867

登錄
首頁精彩閱讀K-means算法及文本聚類實踐
K-means算法及文本聚類實踐
2016-08-17
收藏

K-means算法及文本聚類實踐

K-Means是常用的聚類算法,與其他聚類算法相比,其時間復雜度低,聚類的效果也還不錯,這里簡單介紹一下k-means算法,下圖是一個手寫體數據集聚類的結果。

基本思想

k-means算法需要事先指定簇的個數k,算法開始隨機選擇k個記錄點作為中心點,然后遍歷整個數據集的各條記錄,將每條記錄歸到離它最近的中心點所在的簇中,之后以各個簇的記錄的均值中心點取代之前的中心點,然后不斷迭代,直到收斂,算法描述如下:

上面說的收斂,可以看出兩方面,一是每條記錄所歸屬的簇不再變化,二是優化目標變化不大。算法的時間復雜度是O(K*N*T),k是中心點個數,N數據集的大小,T是迭代次數。

優化目標

k-means的損失函數是平方誤差:


RSSk=∑x∈ωk|x?u(ωk)|2RSSk=∑x∈ωk|x?u(ωk)|2
RSS=∑k=1KRSSkRSS=∑k=1KRSSk

其中ωkωk表示第k個簇,u(ωk)u(ωk)表示第k個簇的中心點,RSSkRSSk是第k個簇的損失函數,RSSRSS表示整體的損失函數。優化目標就是選擇恰當的記錄歸屬方案,使得整體的損失函數最小。

中心點的選擇

k-meams算法的能夠保證收斂,但不能保證收斂于全局最優點,當初始中心點選取不好時,只能達到局部最優點,整個聚類的效果也會比較差??梢圆捎靡韵路椒ǎ簁-means中心點

1、選擇彼此距離盡可能遠的那些點作為中心點;

2、先采用層次進行初步聚類輸出k個簇,以簇的中心點的作為k-means的中心點的輸入。

3、多次隨機選擇中心點訓練k-means,選擇效果最好的聚類結果

k值的選取

k-means的誤差函數有一個很大缺陷,就是隨著簇的個數增加,誤差函數趨近于0,最極端的情況是每個記錄各為一個單獨的簇,此時數據記錄的誤差為0,但是這樣聚類結果并不是我們想要的,可以引入結構風險對模型的復雜度進行懲罰:

K=mink[RSSmin(k)+λk]K=mink[RSSmin(k)+λk]

λλ是平衡訓練誤差與簇的個數的參數,但是現在的問題又變成了如何選取λλ了,有研究[參考文獻1]指出,在數據集滿足高斯分布時,λ=2mλ=2m,其中m是向量的維度。

另一種方法是按遞增的順序嘗試不同的k值,同時畫出其對應的誤差值,通過尋求拐點來找到一個較好的k值,詳情見下面的文本聚類的例子。 

k-means文本聚類

我爬取了36KR的部分文章,共1456篇,分詞后使用sklearn進行k-means聚類。分詞后數據記錄如下:

使用TF-IDF進行特征詞的選取,下圖是中心點的個數從3到80對應的誤差值的曲線:

從上圖中在k=10處出現一個較明顯的拐點,因此選擇k=10作為中心點的個數,下面是10個簇的數據集的個數。

{0: 152, 1: 239, 2: 142, 3: 61, 4: 119, 5: 44, 6: 71, 7: 394, 8: 141, 9: 93}

簇標簽生成

聚類完成后,我們需要一些標簽來描述簇,聚類完后,相當于每個類都用一個類標,這時候可以用TFIDF、互信息、卡方等方法來選取特征詞作為標簽。關于卡方和互信息特征提取可以看我之前的文章文本特征選擇,下面是10個類的tfidf標簽結果。

Cluster 0: 商家 商品 物流 品牌 支付 導購 網站 購物 平臺 訂單
Cluster 1: 投資 融資 美元 公司 資本 市場 獲得 國內 中國 去年
Cluster 2: 手機 智能 硬件 設備 電視 運動 數據 功能 健康 使用
Cluster 3: 數據 平臺 市場 學生 app 移動 信息 公司 醫生 教育
Cluster 4: 企業 招聘 人才 平臺 公司 it 移動 網站 安全 信息
Cluster 5: 社交 好友 交友 寵物 功能 活動 朋友 基于 分享 游戲
Cluster 6: 記賬 理財 貸款 銀行 金融 p2p 投資 互聯網 基金 公司
Cluster 7: 任務 協作 企業 銷售 溝通 工作 項目 管理 工具 成員
Cluster 8: 旅行 旅游 酒店 預訂 信息 城市 投資 開放 app 需求
Cluster 9: 視頻 內容 游戲 音樂 圖片 照片 廣告 閱讀 分享 功能

實現代碼

#!--encoding=utf-8

from __future__ import print_function
from sklearn.feature_extraction.text import TfidfVectorizer
from sklearn.feature_extraction.text import HashingVectorizer
import
matplotlib.pyplot as plt
from sklearn.cluster import KMeans, MiniBatchKMeans

def loadDataset():
    '''導入文本數據集'''
    f = open('36krout.txt','r')
    dataset = []
    lastPage = None
    for line in f.readlines():
        if '< title >' in line and '< / title >' in line:
            if lastPage:
                dataset.append(lastPage)
            lastPage = line
        else:
            lastPage += line
    if lastPage:
        dataset.append(lastPage)
    f.close()
    return dataset

def transform(dataset,n_features=1000):
    vectorizer = TfidfVectorizer(max_df=0.5, max_features=n_features, min_df=2,use_idf=True)
    X = vectorizer.fit_transform(dataset)
    return X,vectorizer

def train(X,vectorizer,true_k=10,minibatch = False,showLable = False):
    #使用采樣數據還是原始數據訓練k-means,    
    if minibatch:
        km = MiniBatchKMeans(n_clusters=true_k, init='k-means++', n_init=1,
                             init_size=1000, batch_size=1000, verbose=False)
    else:
        km = KMeans(n_clusters=true_k, init='k-means++', max_iter=300, n_init=1,
                    verbose=False)
    km.fit(X)    
    if showLable:
        print("Top terms per cluster:")
        order_centroids = km.cluster_centers_.argsort()[:, ::-1]
        terms = vectorizer.get_feature_names()
        print (vectorizer.get_stop_words())
        for i in range(true_k):
            print("Cluster %d:" % i, end='')
            for ind in order_centroids[i, :10]:
                print(' %s' % terms[ind], end='')
            print()
    result = list(km.predict(X))
    print ('Cluster distribution:')
    print (dict([(i, result.count(i)) for i in result]))
    return -km.score(X)
    
def test():
    '''測試選擇最優參數'''
    dataset = loadDataset()    
    print("%d documents" % len(dataset))
    X,vectorizer = transform(dataset,n_features=500)
    true_ks = []
    scores = []
    for i in xrange(3,80,1):        
        score = train(X,vectorizer,true_k=i)/len(dataset)
        print (i,score)
        true_ks.append(i)
        scores.append(score)
    plt.figure(figsize=(8,4))
    plt.plot(true_ks,scores,label="error",color="red",linewidth=1)
    plt.xlabel("n_features")
    plt.ylabel("error")
    plt.legend()
    plt.show()
    
def out():
    '''在最優參數下輸出聚類結果'''
    dataset = loadDataset()
    X,vectorizer = transform(dataset,n_features=500)
    score = train(X,vectorizer,true_k=10,showLable=True)/len(dataset)
    print (score)
#test()
out()

數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢