
在文本挖掘中,主題模型是比較特殊的一塊,它的思想不同于我們常用的機器學習算法,因此這里我們需要專門來總結文本主題模型的算法。本文關注于潛在語義索引算法(LSI)的原理。
1. 文本主題模型的問題特點
在數據分析中,我們經常會進行非監督學習的聚類算法,它可以對我們的特征數據進行非監督的聚類。而主題模型也是非監督的算法,目的是得到文本按照主題的概率分布。從這個方面來說,主題模型和普通的聚類算法非常的類似。但是兩者其實還是有區別的。
聚類算法關注于從樣本特征的相似度方面將數據聚類。比如通過數據樣本之間的歐式距離,曼哈頓距離的大小聚類等。而主題模型,顧名思義,就是對文字中隱含主題的一種建模方法。比如從“人民的名義”和“達康書記”這兩個詞我們很容易發現對應的文本有很大的主題相關度,但是如果通過詞特征來聚類的話則很難找出,因為聚類方法不能考慮到到隱含的主題這一塊。
那么如何找到隱含的主題呢?這個一個大問題。常用的方法一般都是基于統計學的生成方法。即假設以一定的概率選擇了一個主題,然后以一定的概率選擇當前主題的詞。最后這些詞組成了我們當前的文本。所有詞的統計概率分布可以從語料庫獲得,具體如何以“一定的概率選擇”,這就是各種具體的主題模型算法的任務了。
當然還有一些不是基于統計的方法,比如我們下面講到的LSI。
2. 潛在語義索引(LSI)概述
潛在語義索引(Latent Semantic Indexing,以下簡稱LSI),有的文章也叫Latent Semantic Analysis(LSA)。其實是一個東西,后面我們統稱LSI,它是一種簡單實用的主題模型。LSI是基于奇異值分解(SVD)的方法來得到文本的主題的。而SVD及其應用我們在前面的文章也多次講到,比如:奇異值分解(SVD)原理與在降維中的應用和矩陣分解在協同過濾推薦算法中的應用。如果大家對SVD還不熟悉,建議復習奇異值分解(SVD)原理與在降維中的應用后再讀下面的內容。
這里我們簡要回顧下SVD:對于一個m×n的矩陣
A,可以分解為下面三個矩陣:
有時為了降低矩陣的維度到k,SVD的分解可以近似的寫為:
如果把上式用到我們的主題模型,則SVD可以這樣解釋:我們輸入的有m個文本,每個文本有n個詞。而Aij則對應第i個文本的第j個詞的特征值,這里最常用的是基于預處理后的標準化TF-IDF值。k是我們假設的主題數,一般要比文本數少。SVD分解后,
Uil對應第i個文本和第l個主題的相關度。
Vjm對應第j個詞和第m個詞義的相關度。
Σlm對應第l個主題和第m個詞義的相關度。
也可以反過來解釋:我們輸入的有m個詞,對應n個文本。而Aij則對應第i個詞檔的第j個文本的特征值,這里最常用的是基于預處理后的標準化TF-IDF值。k是我們假設的主題數,一般要比文本數少。SVD分解后,
Uil對應第i個詞和第l個詞義的相關度。
Vjm對應第j個文本和第m個主題的相關度。
Σlm對應第l個詞義和第m個主題的相關度。
這樣我們通過一次SVD,就可以得到文檔和主題的相關度,詞和詞義的相關度以及詞義和主題的相關度。
3. LSI簡單實例
這里舉一個簡單的LSI實例,假設我們有下面這個有10個詞三個文本的詞頻TF對應矩陣如下:
這里我們沒有使用預處理,也沒有使用TF-IDF,在實際應用中最好使用預處理后的TF-IDF值矩陣作為輸入。
我們假定對應的主題數為2,則通過SVD降維后得到的三矩陣為:
從矩陣Uk我們可以看到詞和詞義之間的相關性。而從
Vk可以看到3個文本和兩個主題的相關性。大家可以看到里面有負數,所以這樣得到的相關度比較難解釋。
4. LSI用于文本相似度計算
在上面我們通過LSI得到的文本主題矩陣可以用于文本相似度計算。而計算方法一般是通過余弦相似度。比如對于上面的三文檔兩主題的例子。我們可以計算第一個文本和第二個文本的余弦相似度如下 :
sim(d1,d2)=(?0.4945)?(?0.6458)+(0.6492)?(?0.7194)(?0.4945)2+0.64922(?0.6458)2+(?0.7194)2
5. LSI主題模型總結
LSI是最早出現的主題模型了,它的算法原理很簡單,一次奇異值分解就可以得到主題模型,同時解決詞義的問題,非常漂亮。但是LSI有很多不足,導致它在當前實際的主題模型中已基本不再使用。
主要的問題有:
1) SVD計算非常的耗時,尤其是我們的文本處理,詞和文本數都是非常大的,對于這樣的高維度矩陣做奇異值分解是非常難的。
2) 主題值的選取對結果的影響非常大,很難選擇合適的k值。
3) LSI得到的不是一個概率模型,缺乏統計基礎,結果難以直觀的解釋。
對于問題1),主題模型非負矩陣分解(NMF)可以解決矩陣分解的速度問題。對于問題2),這是老大難了,大部分主題模型的主題的個數選取一般都是憑經驗的,較新的層次狄利克雷過程(HDP)可以自動選擇主題個數。對于問題3),牛人們整出了pLSI(也叫pLSA)和隱含狄利克雷分布(LDA)這類基于概率分布的主題模型來替代基于矩陣分解的主題模型。
回到LSI本身,對于一些規模較小的問題,如果想快速粗粒度的找出一些主題分布的關系,則LSI是比較好的一個選擇,其他時候,如果你需要使用主題模型,推薦使用LDA和HDP。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《劉靜:10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda ...
2025-04-23