熱線電話:13121318867

登錄
首頁大數據時代手把手教你對文本文件進行分詞、詞頻統計和可視化【CDA內容分享】
手把手教你對文本文件進行分詞、詞頻統計和可視化【CDA內容分享】
2021-12-06
收藏


今天CDA給大家分享的內容:手把手教你對文本文件進行分詞、詞頻統計和可視化

作者: Python進階者

來源:Python爬蟲與數據挖掘

大家好!我是Python進階者。

前言

前幾天一個在校大學生問了一些關于詞頻、分詞和可視化方面的問題,結合爬蟲,確實可以做點東西出來,可以玩玩,還是蠻不錯的,這里整理成一篇文章,分享給大家。

本文主要涉及的庫有爬蟲庫requests、詞頻統計庫collections、數據處理numpy、結巴分詞庫jieba 、可視化庫pyecharts等等。

一、數據來源

關于數據方面,這里直接是從新聞平臺上進行獲取的文本信息,其實這個文本文件可以拓展開來,你可以自定義文本,也可以是報告,商業報告,政治報告等,也可以是新聞平臺,也可以是論文,也可以是微博熱評,也可以是網易云音樂熱評等等,只要涉及到大量文本的,都可月引用本文的代碼,進行詞頻分詞、統計、可視化等。

二、數據獲取

數據獲取十分簡單,一個簡單的爬蟲和存儲就可以搞定,這里以一篇新聞為例進行演示,代碼如下:

import re
import collections  # 詞頻統計庫
import numpy as np # numpy數據處理庫
import jieba  # 結巴分詞
import requests
from bs4 import BeautifulSoup


from pyecharts import options as opts
from pyecharts.charts import WordCloud
from pyecharts.globals import SymbolType


import warnings
warnings.filterwarnings('ignore')


r=requests.get("https://m.thepaper.cn/baijiahao_11694997",timeout=10)
r.encoding="utf-8"
s=BeautifulSoup(r.text,"html.parser")
f=open("報告.txt","w",encoding="utf-8")
L=s.find_all("p")
for c in L:
    f.write("{}n".format(c.text))
    
f.close()

代碼運行之后,在本地會得到一個【報告.txt】文件,文件內容就是網站上的文本信息。如果你想獲取其他網站上的文本,需要更改下鏈接和提取規則。

三、詞頻統計

接下來就是詞頻統計了,代碼如下所示。

# 讀取文件
fn = open("./報告.txt","r",encoding="utf-8")
string_data = fn.read()
fn.close()
# 文本預處理
# 定義正則表達式匹配模式
pattern = re.compile(u't|,|/|。|n|.|-|:|;|)|(|?|"') 
string_data = re.sub(pattern,'',string_data)  # 將符合模式的字符去除
# 文本分詞
# 精確模式分詞
seg_list_exact = jieba.cut(string_data,cut_all=False)  
object_list = []
# 自定義去除詞庫
remove_words = [u'的',u'要', u'“',u'”',u'和',u',',u'為',u'是',
                '以' u'隨著', u'對于', u'對',u'等',u'能',u'都',u'。',
                u' ',u'、',u'中',u'在',u'了',u'通常',u'如果',u'我',
                u'她',u'(',u')',u'他',u'你',u'?',u'—',u'就',
                u'著',u'說',u'上',u'這', u'那',u'有', u'也',
                u'什么', u'·', u'將', u'沒有', u'到', u'不', u'去'] 

微信復制
for word in seg_list_exact:
    if word not in remove_words:
        object_list.append(word)
# 詞頻統計
# 對分詞做詞頻統計
word_counts = collections.Counter(object_list) 
# 獲取前30最高頻的詞
word_counts_all = word_counts.most_common()
word_counts_top30 = word_counts.most_common(30) 
print("2021年政府工作報告一共有%d個詞"%len(word_counts))
print(word_counts_top30)

首先讀取文本信息,之后對文本進行預處理,提取文字信息,并且可以自定義詞庫,作為停用詞,之后將獲取到的詞頻做詞頻統計,獲取前30最高頻的詞,并進行打印,輸出結果如下圖所示。

四、可視化

接下來就是可視化部分了,這里直接上代碼,如下所示。

import pyecharts
from pyecharts.charts import Line
from pyecharts import options as opts


# 示例數據
cate = [i[0] for i in word_counts_top30]
data1 = [i[1] for i in word_counts_top30]


line = (Line()
       .add_xaxis(cate)
       .add_yaxis('詞頻', data1, 
                  markline_opts=opts.MarkLineOpts(data=[opts.MarkLineItem(type_="average")]))
       .set_global_opts(title_opts=opts.TitleOpts(title="詞頻統計Top30", subtitle=""),
       xaxis_opts=opts.AxisOpts(name_rotate=60,axislabel_opts={"rotate":45}))
      )


line.render_notebook()

輸出結果是一個線圖,看上去還不錯。

五、總結

本文基于Python網絡爬蟲獲取到的文本文件,通過詞頻、分詞和可視化等處理,完成一個較為簡單的項目,歡迎大家積極嘗試。


數據分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數據分析師資訊
更多

OK
客服在線
立即咨詢
日韩人妻系列无码专区视频,先锋高清无码,无码免费视欧非,国精产品一区一区三区无码
客服在線
立即咨詢