
Python做文本挖掘的情感極性分析
「情感極性分析」是對帶有感情色彩的主觀性文本進行分析、處理、歸納和推理的過程。按照處理文本的類別不同,可分為基于新聞評論的情感分析和基于產品評論的情感分析。其中,前者多用于輿情監控和信息預測,后者可幫助用戶了解某一產品在大眾心目中的口碑。目前常見的情感極性分析方法主要是兩種:基于情感詞典的方法和基于機器學習的方法。
1. 基于情感詞典的文本情感極性分析
筆者是通過情感打分的方式進行文本情感極性判斷,score > 0判斷為正向,score < 0判斷為負向。
1.1 數據準備
1.1.1 情感詞典及對應分數
詞典來源于BosonNLP數據下載http://bosonnlp.com/dev/resource 的情感詞典,來源于社交媒體文本,所以詞典適用于處理社交媒體的情感分析。
詞典把所有常用詞都打上了唯一分數有許多不足之處。
不帶情感色彩的停用詞會影響文本情感打分。由于中文的博大精深,詞性的多變成為了影響模型準確度的重要原因。一種情況是同一個詞在不同的語境下可以是代表完全相反的情感意義,用筆者模型預測偏最大的句子為例(來源于朋友圈文本):
有車一族都用了這個寶貝,后果很嚴重哦[偷笑][偷笑][偷笑]1,交警工資估計會打5折,沒有超速罰款了[呲牙][呲牙][呲牙]2,移動聯通公司大幅度裁員,電話費少了[呲牙][呲牙][呲牙]3,中石化中石油裁員2成,路癡不再迷路,省油[悠閑][悠閑][悠閑]5,保險公司裁員2成,保費折上折2成,全國通用[憨笑][憨笑][憨笑]買不買你自己看著辦吧[調皮][調皮][調皮]
里面嚴重等詞都是表達的相反意思,甚至整句話一起表示相反意思,不知死活的筆者還沒能深入研究如何用詞典的方法解決這類問題,但也許可以用機器學習的方法讓神經網絡進行學習能夠初步解決這一問題。另外,同一個詞可作多種詞性,那么情感分數也不應相同,例如:
這部電影真垃圾
垃圾分類
很明顯在第一句中垃圾表現強烈的貶義,而在第二句中表示中性,單一評分對于這類問題的分類難免有失偏頗。
1.1.2 否定詞詞典
否定詞的出現將直接將句子情感轉向相反的方向,而且通常效用是疊加的。常見的否定詞:不、沒、無、非、莫、弗、勿、毋、未、否、別、無、休、難道等。
1.1.3 程度副詞詞典
既是通過打分的方式判斷文本的情感正負,那么分數絕對值的大小則通常表示情感強弱。既涉及到程度強弱的問題,那么程度副詞的引入就是勢在必行的。
詞典內數據格式可參考如下格式,即共兩列,第一列為程度副詞,第二列是程度數值,> 1表示強化情感,< 1表示弱化情感。
1.2 數據預處理
1.2.1 分詞
即將句子拆分為詞語集合,結果如下:
e.g. 這樣/的/酒店/配/這樣/的/價格/還算/不錯
Python常用的分詞工具(在此筆者使用Jieba進行分詞):結巴分詞 Jieba
Pymmseg-cpp
Loso
smallseg
from collections import defaultdict
import os
import re
import jieba
import codecs
“””
1. 文本切割
“””def sent2word(sentence):
“””
Segment a sentence to words
Delete stopwords
“””
segList = jieba.cut(sentence)
segResult = [] for w in segList:
segResult.append(w)
stopwords = readLines(‘stop_words.txt’)
newSent = [] for word in segResult: if word in stopwords:
continue
else:
newSent.append(word) return newSent
1.2.2 去除停用詞
遍歷所有語料中的所有詞語,刪除其中的停用詞
e.g. 這樣/的/酒店/配/這樣/的/價格/還算/不錯–> 酒店/配/價格/還算/不錯
1.3 構建模型
1.3.1 將詞語分類并記錄其位置
將句子中各類詞分別存儲并標注位置。
“””2. 情感定位”””
def classifyWords(wordDict): # (1) 情感詞
senList = readLines(‘BosonNLP_sentiment_score.txt’) senDict = defaultdict()
for s in senList:
senDict[s.split(‘ ‘)[0]] = s.split(‘ ‘)[1] # (2) 否定詞
notList = readLines(‘notDict.txt’) # (3) 程度副詞 degreeList = readLines(‘degreeDict.txt’)
degreeDict = defaultdict()
for d in degreeList:
degreeDict[d.split(‘,’)[0]] = d.split(‘,’)[1]
senWord = defaultdict()
notWord = defaultdict()
degreeWord = defaultdict()
for word in wordDict.keys():
if word in senDict.keys() and word not in notList and word not in degreeDict.keys():
senWord[wordDict[word]] = senDict[word]
elif word in notList and word not in degreeDict.keys(): notWord[wordDict[word]] = -1
elif word in degreeDict.keys(): degreeWord[wordDict[word]] = degreeDict[word]
return senWord, notWord, degreeWord
1.3.2 計算句子得分
在此,簡化的情感分數計算邏輯:所有情感詞語組的分數之和.
定義一個情感詞語組:兩情感詞之間的所有否定詞和程度副詞與這兩情感詞中的后一情感詞構成一個情感詞組,即notWords + degreeWords + sentiWords,例如不是很交好,其中不是為否定詞,為程度副詞,交好為情感詞,那么這個情感詞語組的分數為:
finalSentiScore = (-1) ^ 1 * 1.25 * 0.747127733968
其中1指的是一個否定詞,1.25是程度副詞的數值,0.747127733968為交好的情感分數。
“””3. 情感聚合”””
def scoreSent(senWord, notWord, degreeWord, segResult):
W = 1 score = 0 # 存所有情感詞的位置的列表 senLoc = senWord.keys()
notLoc = notWord.keys()
degreeLoc = degreeWord.keys()
senloc = -1 # notloc = -1 # degreeloc = -1
# 遍歷句中所有單詞segResult,i為單詞絕對位置
for i in range(0, len(segResult)):
# 如果該詞為情感詞
if i in senLoc: # loc為情感詞位置列表的序號 senloc += 1 # 直接添加該情感詞分數 score += W * float(senWord[i])
# print “score = %f” % score
if senloc < len(senLoc) – 1:
# 判斷該情感詞與下一情感詞之間是否有否定詞或程度副詞 # j為絕對位置
for j in range(senLoc[senloc], senLoc[senloc + 1]): # 如果有否定詞
if j in notLoc:
W *= -1 # 如果有程度副詞
elif j in degreeLoc:
W *= float(degreeWord[j])
# i定位至下一個情感詞
if senloc < len(senLoc) – 1:
i = senLoc[senloc + 1]
return score
1.4 模型評價
其中大多數文本被判為正向文本符合實際情況,且絕大多數文本的情感得分的絕對值在10以內,這是因為筆者在計算一個文本的情感得分時,以句號作為一句話結束的標志,在一句話內,情感詞語組的分數累加,如若一個文本中含有多句話時,則取其所有句子情感得分的平均值。然而,這個模型的缺點與局限性也非常明顯:
首先,段落的得分是其所有句子得分的平均值,這一方法并不符合實際情況。正如文章中先后段落有重要性大小之分,一個段落中前后句子也同樣有重要性的差異。
其次,有一類文本使用貶義詞來表示正向意義,這類情況常出現與宣傳文本中,還是那個例子:
有車一族都用了這個寶貝,后果很嚴重哦[偷笑][偷笑][偷笑]1,交警工資估計會打5折,沒有超速罰款了[呲牙][呲牙][呲牙]2,移動聯通公司大幅度裁員,電話費少了[呲牙][呲牙][呲牙]3,中石化中石油裁員2成,路癡不再迷路,省油[悠閑][悠閑][悠閑]5,保險公司裁員2成,保費折上折2成,全國通用[憨笑][憨笑][憨笑]買不買你自己看著辦吧[調皮][調皮][調皮]2980元軒轅魔鏡帶回家,推廣還有返利[得意]
Score Distribution中得分小于-10的幾個文本都是與這類情況相似,這也許需要深度學習的方法才能有效解決這類問題,普通機器學習方法也是很難的。
對于正負向文本的判斷,該算法忽略了很多其他的否定詞、程度副詞和情感詞搭配的情況;用于判斷情感強弱也過于簡單。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
在本文中,我們將探討 AI 為何能夠加速數據分析、如何在每個步驟中實現數據分析自動化以及使用哪些工具。 數據分析中的AI是什么 ...
2025-05-20當數據遇見人生:我的第一個分析項目 記得三年前接手第一個數據分析項目時,我面對Excel里密密麻麻的銷售數據手足無措。那些跳動 ...
2025-05-20在數字化運營的時代,企業每天都在產生海量數據:用戶點擊行為、商品銷售記錄、廣告投放反饋…… 這些數據就像散落的拼圖,而相 ...
2025-05-19在當今數字化營銷時代,小紅書作為國內領先的社交電商平臺,其銷售數據蘊含著巨大的商業價值。通過對小紅書銷售數據的深入分析, ...
2025-05-16Excel作為最常用的數據分析工具,有沒有什么工具可以幫助我們快速地使用excel表格,只要輕松幾步甚至輸入幾項指令就能搞定呢? ...
2025-05-15數據,如同無形的燃料,驅動著現代社會的運轉。從全球互聯網用戶每天產生的2.5億TB數據,到制造業的傳感器、金融交易 ...
2025-05-15大數據是什么_數據分析師培訓 其實,現在的大數據指的并不僅僅是海量數據,更準確而言是對大數據分析的方法。傳統的數 ...
2025-05-14CDA持證人簡介: 萬木,CDA L1持證人,某電商中廠BI工程師 ,5年數據經驗1年BI內訓師,高級數據分析師,擁有豐富的行業經驗。 ...
2025-05-13CDA持證人簡介: 王明月 ,CDA 數據分析師二級持證人,2年數據產品工作經驗,管理學博士在讀。 學習入口:https://edu.cda.cn/g ...
2025-05-12CDA持證人簡介: 楊貞璽 ,CDA一級持證人,鄭州大學情報學碩士研究生,某上市公司數據分析師。 學習入口:https://edu.cda.cn/g ...
2025-05-09CDA持證人簡介 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度、美團、阿里等 ...
2025-05-07相信很多做數據分析的小伙伴,都接到過一些高階的數據分析需求,實現的過程需要用到一些數據獲取,數據清洗轉換,建模方法等,這 ...
2025-05-06以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda.cn/g ...
2025-04-30CDA持證人簡介: 邱立峰 CDA 數據分析師二級持證人,數字化轉型專家,數據治理專家,高級數據分析師,擁有豐富的行業經驗。 ...
2025-04-29CDA持證人簡介: 程靖 CDA會員大咖,暢銷書《小白學產品》作者,13年頂級互聯網公司產品經理相關經驗,曾在百度,美團,阿里等 ...
2025-04-28CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-27數據分析在當今信息時代發揮著重要作用。單因素方差分析(One-Way ANOVA)是一種關鍵的統計方法,用于比較三個或更多獨立樣本組 ...
2025-04-25CDA持證人簡介: 居瑜 ,CDA一級持證人國企財務經理,13年財務管理運營經驗,在數據分析就業和實踐經驗方面有著豐富的積累和經 ...
2025-04-25在當今數字化時代,數據分析師的重要性與日俱增。但許多人在踏上這條職業道路時,往往充滿疑惑: 如何成為一名數據分析師?成為 ...
2025-04-24以下的文章內容來源于劉靜老師的專欄,如果您想閱讀專欄《劉靜:10大業務分析模型突破業務瓶頸》,點擊下方鏈接 https://edu.cda ...
2025-04-23