
用Python給文本創立向量空間模型的教程
我們需要開始思考如何將文本集合轉化為可量化的東西。最簡單的方法是考慮詞頻。
我將盡量嘗試不使用NLTK和Scikits-Learn包。我們首先使用Python講解一些基本概念。
基本詞頻
首先,我們回顧一下如何得到每篇文檔中的詞的個數:一個詞頻向量。
#examples taken from here: http://stackoverflow.com/a/1750187
mydoclist = ['Julie loves me more than Linda loves me',
'Jane likes me more than Julie loves me',
'He likes basketball more than baseball']
#mydoclist = ['sun sky bright', 'sun sun bright']
from collections import Counter
for doc in mydoclist:
tf = Counter()
for word in doc.split():
tf[word] +=1
print tf.items()
[('me', 2), ('Julie', 1), ('loves', 2), ('Linda', 1), ('than', 1), ('more', 1)]
[('me', 2), ('Julie', 1), ('likes', 1), ('loves', 1), ('Jane', 1), ('than', 1), ('more', 1)]
[('basketball', 1), ('baseball', 1), ('likes', 1), ('He', 1), ('than', 1), ('more', 1)]
這里我們引入了一個新的Python對象,被稱作為Counter。該對象只在Python2.7及更高的版本中有效。Counters非常的靈活,利用它們你可以完成這樣的功能:在一個循環中進行計數。
根據每篇文檔中詞的個數,我們進行了文檔量化的第一個嘗試。但對于那些已經學過向量空間模型中“向量”概念的人來說,第一次嘗試量化的結果不能進行比較。這是因為它們不在同一詞匯空間中。
我們真正想要的是,每一篇文件的量化結果都有相同的長度,而這里的長度是由我們語料庫的詞匯總量決定的。
我們的詞向量為[me, basketball, Julie, baseball, likes, loves, Jane, Linda, He, than, more]
文檔”Julie loves me more than Linda loves me”的詞頻向量為:[2, 0, 1, 0, 0, 2, 0, 1, 0, 1, 1]
文檔”Jane likes me more than Julie loves me”的詞頻向量為:[2, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1]
文檔”He likes basketball more than baseball”的詞頻向量為:[0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 1]
合在一起,就是我們主文檔的詞矩陣:
[[2, 0, 1, 0, 0, 2, 0, 1, 0, 1, 1], [2, 0, 1, 0, 1, 1, 1, 0, 0, 1, 1], [0, 1, 0, 1, 1, 0, 0, 0, 1, 1, 1]]
好吧,這看起來似乎很合理。如果你有任何機器學習的經驗,你剛剛看到的是建立一個特征空間?,F在每篇文檔都在相同的特征空間中,這意味著我們可以在同樣維數的空間中表示整個語料庫,而不會丟失太多信息。
標準化向量,使其L2范數為1
一旦你在同一個特征空間中得到了數據,你就可以開始應用一些機器學習方法:分類、聚類等等。但實際上,我們同樣遇到一些問題。單詞并不都包含相同的信息。
如果有些單詞在一個單一的文件中過于頻繁地出現,它們將擾亂我們的分析。我們想要對每一個詞頻向量進行比例縮放,使其變得更具有代表性。換句話說,我們需要進行向量標準化。
我們真的沒有時間過多地討論關于這方面的數學知識?,F在僅僅接受這樣一個事實:我們需要確保每個向量的L2范數等于1。這里有一些代碼,展示這是如何實現的。
格式化后的舊的文檔詞矩陣:
按行計算的L2范數為1的文檔詞矩陣:
還不錯,沒有太深究線性代數的知識,你就可以馬上看到我們按比例縮小了各個向量,使它們的每一個元素都在0到1之間,并且不會丟失太多有價值的信息。你看到了,一個計數為1的詞在一個向量中的值和其在另一個向量中的值不再相同。
為什么我們關心這種標準化嗎?考慮這種情況,如果你想讓一個文檔看起來比它實際上和一個特定主題更相關,你可能會通過不斷重復同一個詞,來增加它包含到一個主題的可能性。坦率地說,在某種程度上,我們得到了一個在該詞的信息價值上衰減的結果。所以我們需要按比例縮小那些在一篇文檔中頻繁出現的單詞的值。
IDF頻率加權
我們現在還沒有得到想要的結果。就像一篇文檔中的所有單詞不具有相同的價值一樣,也不是全部文檔中的所有單詞都有價值。我們嘗試利用反文檔詞頻(IDF)調整每一個單詞權重。我們看看這包含了些什么:
print'The inverse document frequency vector is ['+', '.join(format(freq,'f')f
我們的詞向量為[me, basketball, Julie, baseball, likes, loves, Jane, Linda, He, than, more]
反文檔詞頻向量為[1.609438, 1.386294, 1.609438, 1.386294, 1.609438, 1.609438, 1.386294, 1.386294, 1.386294, 1.791759, 1.791759]
現在,對于詞匯中的每一個詞,我們都有一個常規意義上的信息值,用于解釋他們在整個語料庫中的相對頻率?;叵胍幌?,這個信息值是一個“逆”!即信息值越小的詞,它在語料庫中出現的越頻繁。
我們快得到想要的結果了。為了得到TF-IDF加權詞向量,你必須做一個簡單的計算:tf * idf。
現在讓我們退一步想想?;叵胂戮€性代數:如果你用一個AxB的向量乘以另一個AxB的向量,你將得到一個大小為AxA的向量,或者一個標量。我們不會那么做,因為我們想要的是一個具有相同維度(1 x詞數量)的詞向量,向量中的每個元素都已經被自己的idf權重加權了。我們如何在Python中實現這樣的計算呢?
在這里我們可以編寫完整的函數,但我們不那么做,我們將要對numpy做一個簡介。
太棒了!現在我們已經將IDF向量轉化為BxB的矩陣了,矩陣的對角線就是IDF向量。這意味著我們現在可以用反文檔詞頻矩陣乘以每一個詞頻向量了。接著,為了確保我們也考慮那些過于頻繁地出現在文檔中的詞,我們將對每篇文檔的向量進行標準化,使其L2范數等于1。
太棒了!你剛看到了一個展示如何繁瑣地建立一個TF-IDF加權的文檔詞矩陣的例子。
最好的部分來了:你甚至不需要手動計算上述變量,使用scikit-learn即可。
記住,Python中的一切都是一個對象,對象本身占用內存,同時對象執行操作占用時間。使用scikit-learn包,以確保你不必擔心前面所有步驟的效率問題。
注意:你從TfidfVectorizer/TfidfTransformer得到的值將和我們手動計算的值不同。這是因為scikit-learn使用一個Tfidf的改進版本處理除零的錯誤。這里有一個更深入的討論。
實際上,你可以用一個函數完成所有的步驟:TfidfVectorizer
from sklearn.feature_extraction.text import TfidfVectorizer
tfidf_vectorizer = TfidfVectorizer(min_df = 1)
tfidf_matrix = tfidf_vectorizer.fit_transform(mydoclist)
print tfidf_matrix.todense()
[[ 0. 0. 0. 0. 0.28945906 0.
0.38060387 0.57891811 0.57891811 0.22479078 0.22479078]
[ 0. 0. 0. 0.41715759 0.3172591 0.3172591
0. 0.3172591 0.6345182 0.24637999 0.24637999]
[ 0.48359121 0.48359121 0.48359121 0. 0. 0.36778358
0. 0. 0. 0.28561676 0.28561676]]
并且我們可以利用這個詞匯空間處理新的觀測文檔,就像這樣:
new_docs = ['He watches basketball and baseball', 'Julie likes to play basketball', 'Jane loves to play baseball']
new_term_freq_matrix = tfidf_vectorizer.transform(new_docs)
print tfidf_vectorizer.vocabulary_
print new_term_freq_matrix.todense()
{u'me': 8, u'basketball': 1, u'julie': 4, u'baseball': 0, u'likes': 5, u'loves': 7, u'jane': 3, u'linda': 6, u'more': 9, u'than': 10, u'he': 2}
[[ 0.57735027 0.57735027 0.57735027 0. 0. 0. 0.
0. 0. 0. 0. ]
[ 0. 0.68091856 0. 0. 0.51785612 0.51785612
0. 0. 0. 0. 0. ]
[ 0.62276601 0. 0. 0.62276601 0. 0. 0.
0.4736296 0. 0. 0. ]]
請注意,在new_term_freq_matrix中并沒有“watches”這樣的單詞。這是因為我們用于訓練的文檔是mydoclist中的文檔,這個詞并不會出現在那個語料庫的詞匯中。換句話說,它在我們的詞匯詞典之外。
回到Amazon評論文本
練習2
現在是時候嘗試使用你學過的東西了。利用TfidfVectorizer,你可以在Amazon評論文本的字符串列表上嘗試建立一個TF-IDF加權文檔詞矩。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
CDA數據分析師證書考試體系(更新于2025年05月22日)
2025-05-26解碼數據基因:從數字敏感度到邏輯思維 每當看到超市貨架上商品的排列變化,你是否會聯想到背后的銷售數據波動?三年前在零售行 ...
2025-05-23在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25