大司馬老師上課
一:前言
上次把斗魚彈幕數據抓取搞定后,我就拿來試試用詞云分析看看效果,簡單學習一下。這是彈幕抓拍去分析的對象是斗魚主播大司馬,因為他直播比較搞笑,雖然我不玩游戲,但是之前看他還是有意思。這次我使用的數據是彈幕爬取后保存到text中的,實現代碼放在這里:github.com/rieuse/DouyuTV,有了這個數據后續就可以使用詞云分析了。
二:遇到的坑
第一次用需要安裝幾個插件:jieba,scipy,wordcloud,但是這個wordcloud在win下面容易出錯。解決方法是使用http://www.lfd.uci.edu/~gohlke/pythonlibs/ 網站下載對應的模塊,然后復制到你的電腦目錄中,之后使用命令行工具進入該文件夾中,然后執行一下安裝操作,我是python3.6 64位電腦:pip install wordcloud?1.3.1?cp36?cp36m?win_amd64.whl其他版本請下載安裝對應模塊。
三:簡單原理
- jieba這個模塊是用來分詞的,把一段文字分解成一個一個的詞匯,就像我的錘子手機的大爆炸一樣分詞。jieba.cut()分詞函數提供了三個模式:全模式,精確模式,搜索引擎模式。全模式:速度塊,掃描成詞的詞語,但時會出現歧義的詞語
精確模式:盡可能最準確非切分詞語,比較適合作文本分析
搜索引擎模式:就是精確模式的基礎上,對長詞再次切分,提高召回率
這里默認的話就是精確模式。第一次可以不用考慮模式問題,先上來弄出個圖給自己美滋滋一下再說。 - 之后對分詞后的數據使用wordcloud模塊,進行對詞匯分析了
- 最后使用matplotlib.pyplot,繪圖展現出來。
四:代碼展現
-
1.Python的代碼量很少,所以學習還是比其他語言來的舒服。這里的就簡單這些代碼就實現了詞云的目的。我這里導入的文檔是彈幕爬取后的,代碼在我gituhub中,就是把之前彈幕數據保存到mongodb改成只把彈幕內容保存到text文檔中。
Paste_Image.png
import jieba,jieba.analyse
from wordcloud import WordCloud, ImageColorGenerator
import matplotlib.pyplot as plt
import os
import PIL.Image as Image
import numpy as np
with open('大司馬即將上課前后.txt','r',encoding='utf-8') as f:
text = f.read()
f.close()
cut_text = " ".join(jieba.cut(text)) #使用空格連接 進行中文分詞
d = os.path.dirname(__file__) # 獲取當前文件路徑
color_mask = np.array(Image.open(os.path.join(d,'img.jpg'))) # 設置圖片
cloud = WordCloud(
background_color='#F0F8FF', # 參數為設置背景顏色,默認顏色則為黑色
font_path="FZLTKHK--GBK1-0.ttf", # 使用指定字體可以顯示中文,或者修改wordcloud.py文件字體設置并且放入相應字體文件
max_words=1000, # 詞云顯示的最大詞數
font_step=10, # 步調太大,顯示的詞語就少了
mask=color_mask, #設置背景圖片
random_state= 15, # 設置有多少種隨機生成狀態,即有多少種配色方案
min_font_size=15, #字體最小值
max_font_size=232, #字體最大值
)
cloud.generate(cut_text) #對分詞后的文本生成詞云
image_colors = ImageColorGenerator(color_mask) # 從背景圖片生成顏色值
plt.show(cloud.recolor(color_func=image_colors)) # 繪制時用背景圖片做為顏色的圖片
plt.imshow(cloud) # 以圖片的形式顯示詞云
plt.axis('off') # 關閉坐標軸
plt.show() # 展示圖片
cloud.to_file(os.path.join(d, 'pic.jpg')) # 圖片大小將會按照 mask 保存
- 2.執行之后就可以顯示出來了:
直播開始前彈幕
之后我又對斗魚主播蕪湖大司馬直播后一段時間的彈幕分析了一下,結果如下:
直播開始后彈幕
- 3.前面是使用自己的詞云分析,之后我把我的兩個時間段的彈幕內容放到bluemc,這里來分析是這樣的:
Paste_Image.png
Paste_Image.png
五:總結
通過兩個時間段的詞云分析,可以看的出來觀眾說的最多的,關注點是哪些。這次我做的詞云也很簡單,后續在研究研究讓它更美觀一些,精準一些。
貼出我的github地址,我的爬蟲代碼和學習的基礎部分都放進去了,有喜歡的朋友可以點擊 start follw一起學習交流吧!github.com/rieuse/DouyuTV