利用Python實(shí)現(xiàn)中文情感極性分析

情感極性分析,即情感分類,對(duì)帶有主觀情感色彩的文本進(jìn)行分析、歸納。情感極性分析主要有兩種分類方法:基于情感知識(shí)的方法基于機(jī)器學(xué)習(xí)的方法。基于情感知識(shí)的方法通過一些已有的情感詞典計(jì)算文本的情感極性(正向或負(fù)向),其方法是統(tǒng)計(jì)文本中出現(xiàn)的正、負(fù)向情感詞數(shù)目或情感詞的情感值來判斷文本情感類別;基于機(jī)器學(xué)習(xí)的方法利用機(jī)器學(xué)習(xí)算法訓(xùn)練已標(biāo)注情感類別的訓(xùn)練數(shù)據(jù)集訓(xùn)練分類模型,再通過分類模型預(yù)測(cè)文本所屬情感分類。本文采用機(jī)器學(xué)習(xí)方法實(shí)現(xiàn)對(duì)酒店評(píng)論數(shù)據(jù)的情感分類,利用Python語(yǔ)言實(shí)現(xiàn)情感分類模型的構(gòu)建和預(yù)測(cè),不包含理論部分,旨在通過實(shí)踐一步步了解、實(shí)現(xiàn)中文情感極性分析。

1 開發(fā)環(huán)境準(zhǔn)備

1.1 Python環(huán)境

在python官網(wǎng)https://www.python.org/downloads/ 下載計(jì)算機(jī)對(duì)應(yīng)的python版本,本人使用的是Python2.7.13的版本。后面,因?yàn)橄胍褂肅NN算法與SVM算法結(jié)果進(jìn)行比對(duì),使用到了Tensorflow模塊,而此模塊在Windows系統(tǒng)中只有Python35版本,因此又加裝了Python3.5的版本,即一臺(tái)電腦同時(shí)存在連個(gè)python版本,可以分開使用。

在本實(shí)例中前面直到SVM算法的實(shí)現(xiàn)都在Python27下完成,僅CNN算法在Python35下完成,特此說明。

1.2 第三方模塊

本實(shí)例代碼的實(shí)現(xiàn)使用到了多個(gè)著名的第三方模塊,主要模塊如下所示:

2 數(shù)據(jù)獲取

2.1 停用詞詞典

本文使用中科院計(jì)算所中文自然語(yǔ)言處理開放平臺(tái)發(fā)布的中文停用詞表,包含了1208個(gè)停用詞。下載地址:http://www.hicode.cc/download/view-software-13784.html

2.2 正負(fù)向語(yǔ)料庫(kù)

文本從http://www.datatang.com/data/11936 下載“有關(guān)中文情感挖掘的酒店評(píng)論語(yǔ)料”作為訓(xùn)練集與測(cè)試集,該語(yǔ)料包含了4種語(yǔ)料子集,本文選用正負(fù)各1000的平衡語(yǔ)料(ChnSentiCorp_htl_ba_2000)作為數(shù)據(jù)集進(jìn)行分析。

3 數(shù)據(jù)預(yù)處理

3.1 正負(fù)向語(yǔ)料預(yù)處理

下載并解壓ChnSentiCorp_htl_ba_2000.rar文件,得到的文件夾中包含neg(負(fù)向語(yǔ)料)和pos(正向語(yǔ)料)兩個(gè)文件夾,而文件夾中的每一篇評(píng)論為一個(gè)txt文檔,為了方便之后的操作,需要把正向和負(fù)向評(píng)論分別規(guī)整到對(duì)應(yīng)的一個(gè)txt文件中,即正向語(yǔ)料的集合文檔(命名為2000_pos.txt)和負(fù)向語(yǔ)料的集合文檔(命名為2000_neg.txt)。
具體Python實(shí)現(xiàn)代碼如下所示:

1_process--文檔處理代碼

運(yùn)行完成后得到2000_pos.txt和2000_neg.txt兩個(gè)文本文件,分別存放正向評(píng)論和負(fù)向評(píng)論,每篇評(píng)論為一行。文檔部分截圖如下所示:

酒店評(píng)論截圖

3.2 中文文本分詞

本文采用結(jié)巴分詞分別對(duì)正向語(yǔ)料和負(fù)向語(yǔ)料進(jìn)行分詞處理。特別注意,在執(zhí)行代碼前需要把txt源文件手動(dòng)轉(zhuǎn)化成UTF-8格式,否則會(huì)報(bào)中文編碼的錯(cuò)誤。在進(jìn)行分詞前,需要對(duì)文本進(jìn)行去除數(shù)字、字母和特殊符號(hào)的處理,使用python自帶的stringre模塊可以實(shí)現(xiàn),其中string模塊用于處理字符串操作,re模塊用于正則表達(dá)式處理。
具體實(shí)現(xiàn)代碼如下所示:

2_cutsentence--結(jié)巴分詞代碼

處理完成后,得到2000_pos_cut.txt和2000_neg_cut.txt兩個(gè)txt文件,分別存放正負(fù)向語(yǔ)料分詞后的結(jié)果。分詞結(jié)果部分截圖如下所示:

分詞結(jié)果截圖

3.3 去停用詞

分詞完成后,即可讀取停用詞表中的停用詞,對(duì)分詞后的正負(fù)向語(yǔ)料進(jìn)行匹配并去除停用詞。去除停用詞的步驟非常簡(jiǎn)單,主要有兩個(gè):

  • 1)讀取停用詞表;
  • 2)遍歷分詞后的句子,將每個(gè)詞丟到此表中進(jìn)行匹配,若停用詞表存在則替換為空。

具體實(shí)現(xiàn)代碼如下所示:

3_stopword--去除停用詞代碼

根據(jù)代碼所示,停用詞表的獲取使用到了python特有的廣播形式,一句代碼即可搞定:

stopkey = [w.strip() for w in codecs.open('data\stopWord.txt', 'r', encoding='utf-8').readlines()]

讀取出的每一個(gè)停用詞必須要經(jīng)過去符號(hào)處理即w.strip(),因?yàn)樽x取出的停用詞還包含有換行符和制表符,如果不處理則匹配不上。代碼執(zhí)行完成后,得到2000_neg_cut_stopword.txt和2000_pos_cut_stopword.txt兩個(gè)txt文件。

由于去停用詞的步驟是在句子分詞后執(zhí)行的,因此通常與分詞操作在同一個(gè)代碼段中進(jìn)行,即在句子分詞操作完成后直接調(diào)用去停用詞的函數(shù),并得到去停用詞后的結(jié)果,再寫入結(jié)果文件中。本文是為了便于步驟的理解將兩者分開為兩個(gè)代碼文件執(zhí)行,各位可根據(jù)自己的需求進(jìn)行調(diào)整。

3.4 獲取特征詞向量

根據(jù)以上步驟得到了正負(fù)向語(yǔ)料的特征詞文本,而模型的輸入必須是數(shù)值型數(shù)據(jù),因此需要將每條由詞語(yǔ)組合而成的語(yǔ)句轉(zhuǎn)化為一個(gè)數(shù)值型向量。常見的轉(zhuǎn)化算法有Bag of Words(BOW)、TF-IDF、Word2Vec。本文采用Word2Vec詞向量模型將語(yǔ)料轉(zhuǎn)換為詞向量。

由于特征詞向量的抽取是基于已經(jīng)訓(xùn)練好的詞向量模型,而wiki中文語(yǔ)料是公認(rèn)的大型中文語(yǔ)料,本文擬從wiki中文語(yǔ)料生成的詞向量中抽取本文語(yǔ)料的特征詞向量。Wiki中文語(yǔ)料的Word2vec模型訓(xùn)練在之前寫過的一篇文章“利用Python實(shí)現(xiàn)wiki中文語(yǔ)料的word2vec模型構(gòu)建” 中做了詳盡的描述,在此不贅述。即本文從文章最后得到的wiki.zh.text.vector中抽取特征詞向量作為模型的輸入。

獲取特征詞向量的主要步驟如下:

  • 1)讀取模型詞向量矩陣;
  • 2)遍歷語(yǔ)句中的每個(gè)詞,從模型詞向量矩陣中抽取當(dāng)前詞的數(shù)值向量,一條語(yǔ)句即可得到一個(gè)二維矩陣,行數(shù)為詞的個(gè)數(shù),列數(shù)為模型設(shè)定的維度;
  • 3)根據(jù)得到的矩陣計(jì)算矩陣均值作為當(dāng)前語(yǔ)句的特征詞向量;
  • 4)全部語(yǔ)句計(jì)算完成后,拼接語(yǔ)句類別代表的值,寫入csv文件中。

主要代碼如下圖所示:

4_getwordvecs--獲取詞向量代碼

代碼執(zhí)行完成后,得到一個(gè)名為2000_data.csv的文件,第一列為類別對(duì)應(yīng)的數(shù)值(1-pos, 0-neg),第二列開始為數(shù)值向量,每一行代表一條評(píng)論。結(jié)果的部分截圖如下所示:

詞向量截圖

3.5 降維

Word2vec模型設(shè)定了400的維度進(jìn)行訓(xùn)練,得到的詞向量為400維,本文采用PCA算法對(duì)結(jié)果進(jìn)行降維。具體實(shí)現(xiàn)代碼如下所示:

5_pca_svm--PCA降維代碼

運(yùn)行代碼,根據(jù)結(jié)果圖發(fā)現(xiàn)前100維就能夠較好的包含原始數(shù)據(jù)的絕大部分內(nèi)容,因此選定前100維作為模型的輸入。

PCA維度解釋結(jié)果圖

4 分類模型構(gòu)建

本文采用支持向量機(jī)(SVM)作為本次實(shí)驗(yàn)的中文文本分類模型,其他分類模型采用相同的分析流程,在此不贅述。

支持向量機(jī)(SVM)是一種有監(jiān)督的機(jī)器學(xué)習(xí)模型。本文首先采用經(jīng)典的機(jī)器學(xué)習(xí)算法SVM作為分類器算法,通過計(jì)算測(cè)試集的預(yù)測(cè)精度和ROC曲線來驗(yàn)證分類器的有效性,一般來說ROC曲線的面積(AUC)越大模型的表現(xiàn)越好。

首先使用SVM作為分類器算法,隨后利用matplotlib和metric庫(kù)來構(gòu)建ROC曲線。具體python代碼如下所示:

5_pca_svm--SVM代碼

運(yùn)行代碼,得到Test Accuracy: 0.88,即本次實(shí)驗(yàn)測(cè)試集的預(yù)測(cè)準(zhǔn)確率為88%,ROC曲線如下圖所示。

ROC曲線圖

至此,利用Pyhon對(duì)酒店評(píng)論進(jìn)行中文情感極性分析的流程與方法全部介紹完畢,代碼和數(shù)據(jù)已上傳至本人的GitHub倉(cāng)庫(kù),data文件夾中包含停用詞表stopWord.txt和測(cè)試集ChnSentiCorp_htl_ba_2000,還可采用其他分類模型進(jìn)行分類,歡迎各位朋友批評(píng)指正、共同學(xué)習(xí)!

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請(qǐng)聯(lián)系作者
平臺(tái)聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡(jiǎn)書系信息發(fā)布平臺(tái),僅提供信息存儲(chǔ)服務(wù)。

推薦閱讀更多精彩內(nèi)容