搜狐新聞文本分類:機器學習大亂斗

目標

  • 從頭開始實踐中文短文本分類,記錄一下實驗流程與遇到的
  • 運用多種機器學習(深度學習 + 傳統機器學習)方法比較短文本分類處理過程與結果差別

工具

  • 深度學習:keras
  • 傳統機器學習:sklearn

參與比較的機器學習方法

  1. CNN 、 CNN + word2vec
  2. LSTM 、 LSTM + word2vec
  3. MLP(多層感知機)
  4. 樸素貝葉斯
  5. KNN
  6. SVM
  7. SVM + word2vec 、SVM + doc2vec

第 1-3 組屬于深度學習方法,第 4-6 組屬于傳統機器學習方法,第 7 組算是種深度與傳統合作的方法,畫風清奇,拿來試試看看效果

數據集

搜狗實驗室 搜狐新聞數據 下載地址:http://www.sogou.com/labs/resource/cs.php

先上結果

實驗結論

  • 引入預訓練的 word2vec 模型會給訓練帶來好處,具體來說:(1)間接引入外部訓練數據,防止過擬合;(2)減少需要訓練的參數個數,提高訓練效率
  • LSTM 需要訓練的參數個數遠小于 CNN,但訓練時間大于 CNN。CNN 在分類問題的表現上一直很好,無論是圖像還是文本;而想讓 LSTM 優勢得到發揮,首先讓訓練數據量得到保證
  • 將單詞在 word2vec 中的詞向量加和求平均獲得整個句子的語義向量的方法看似 naive 有時真挺奏效,當然僅限于短句子,長度 100 以內應該可以
  • 機器學習方法萬千,具體選擇用什么樣的方法還是要取決于數據集的規模以及問題本身的復雜度,對于復雜程度一般的問題,看似簡單的方法有可能是墜吼地

干貨上完了,下面是實驗的具體流程

0 數據預處理

將下載的原始數據進行轉碼,然后給文本標類別的標簽,然后制作訓練與測試數據,然后控制文本長度,分詞,去標點符號
哎,坑多,費事,比較麻煩
首先,搜狗實驗室提供的數據下載下來是 xml 格式,并且是 GBK (萬惡之源)編碼,需要轉成 UTF8,并整理成 json 方便處理。原始數據長這個樣:


這么大的數據量,怎么轉碼呢?先嘗試利用 python 先讀入數據然后轉碼再保存,可傲嬌 python 并不喜歡執行這種語句。。。再嘗試利用 vim 的 :set fileencoding=utf-8,亂碼從███變成錕斤拷。。。


經過幾次嘗試,只能通過文本編輯器打開,然后利用文本編輯器轉換編碼。這樣問題來了,文件大小1.6G,記事本就不提了,Notepad 和 Editplus 也都紛紛陣亡。。。


還好最后發現了 UltraEdit,不但可以打開,速度簡直飛起來,轉碼后再整理成的 json 長這個樣子:

UltraEdit 就是好就是秒就是呱呱叫
搜狗新聞的數據沒有直接提供分類,而是得通過新聞來源網址的 url 來查其對應得分類,比如 gongyi.sohu.com 的 url 前綴對應的新聞類型就是“公益類”。對著他提供的對照表查,1410000+的總數據,成功標出來的有510000+,標不出來的新聞基本都來自 roll.sohu.com,這是搜狐的滾動新聞,亂七八糟大雜燴,難以確定是什么類


對成功標出來的15個類的新聞,統計一下類別的分布,結果如下:


分布比較不均,第 14 類和第 15 類的新聞很少,另外第 8 類和第 11 類一個新聞也沒有


所以最后選了剩下的11個類,每個類抽2000個新聞,按4:1分成訓練與測試,如圖


11個類分別是


對這些新聞的長度進行統計結果如下:


橫軸是新聞的長度,縱軸是擁有此長度的新聞數量。在長度為500字和1600字時突然兩個,猜測是搜狐新聞的一些長度限制???excited

長度0-100的放大觀察,分布還可以,說明如果基于這套數據做文本分類,需要對原始文本進行固定長度的截取,長度 100 可能是個不錯的選擇

上一步選出來的訓練新聞長這樣,因為考慮到新聞標題的意義重大,這里就將新聞標題和新聞內容接到一起,用空格隔開,然后截取每條新聞的前 100 個字

一行是一條新聞,訓練數據17600行,測試數據4324行。然后用jieba分詞,分詞后利用詞性標注結果,把詞性為‘x’(字符串)的去掉,就完成了去標點符號


jieba真是好真是秒真是呱呱叫
最后得到以下結果文件:(1)新聞文本數據,每行 1 條新聞,每條新聞由若干個詞組成,詞之間以空格隔開,訓練文本 17600 行,測試文本 4324 行;(2)新聞標簽數據,每行 1 個數字,對應這條新聞所屬的類別編號,訓練標簽 17600行,測試標簽 4324 行

1 CNN

深度學習用的 keras 工具,操作簡單易懂,模型上手飛快,居家旅行必備。keras 后端用的 Tensorflow,雖然用什么都一樣

不使用預訓練 word2vec 模型的 CNN:

首先一些先設定一些會用到的參數

MAX_SEQUENCE_LENGTH = 100 # 每條新聞最大長度
EMBEDDING_DIM = 200 # 詞向量空間維度
VALIDATION_SPLIT = 0.16 # 驗證集比例
TEST_SPLIT = 0.2 # 測試集比例

第一步先把訓練與測試數據放在一起提取特征,使用 keras 的 Tokenizer 來實現,將新聞文檔處理成單詞索引序列,單詞與序號之間的對應關系靠單詞的索引表 word_index 來記錄,這里從所有新聞中提取到 65604 個單詞,比如 [茍,國家,生死] 就變成了 [1024, 666, 233] ;然后將長度不足 100 的新聞用 0 填充(在前端填充),用 keras 的 pad_sequences 實現;最后將標簽處理成 one-hot 向量,比如 6 變成了 [0,0,0,0,0,0,1,0,0,0,0,0,0],用 keras 的 to_categorical 實現

from keras.preprocessing.text import Tokenizer
from keras.preprocessing.sequence import pad_sequences
from keras.utils import to_categorical
import numpy as np

tokenizer = Tokenizer()
tokenizer.fit_on_texts(all_texts)
sequences = tokenizer.texts_to_sequences(all_texts)
word_index = tokenizer.word_index
print('Found %s unique tokens.' % len(word_index))
data = pad_sequences(sequences, maxlen=MAX_SEQUENCE_LENGTH)
labels = to_categorical(np.asarray(all_labels))
print('Shape of data tensor:', data.shape)
print('Shape of label tensor:', labels.shape)

再將處理后的新聞數據按 6.4:1.6:2 分為訓練集,驗證集,測試集

p1 = int(len(data)*(1-VALIDATION_SPLIT-TEST_SPLIT))
p2 = int(len(data)*(1-TEST_SPLIT))
x_train = data[:p1]
y_train = labels[:p1]
x_val = data[p1:p2]
y_val = labels[p1:p2]
x_test = data[p2:]
y_test = labels[p2:]
print 'train docs: '+str(len(x_train))
print 'val docs: '+str(len(x_val))
print 'test docs: '+str(len(x_test))

然后就是搭建模型,首先是一個將文本處理成向量的 embedding 層,這樣每個新聞文檔被處理成一個 100 x 200 的二維向量,100 是每條新聞的固定長度,每一行的長度為 200 的行向量代表這個單詞在空間中的詞向量。下面通過 1 層卷積層與池化層來縮小向量長度,再加一層 Flatten 層將 2 維向量壓縮到 1 維,最后通過兩層 Dense(全連接層)將向量長度收縮到 12 上,對應新聞分類的 12 個類(其實只有 11 個類,標簽 0 沒有用到)。搭完收工,最后,訓練模型,測試模型,一鼓作氣,攻下高地。

from keras.layers import Dense, Input, Flatten, Dropout
from keras.layers import Conv1D, MaxPooling1D, Embedding
from keras.models import Sequential

model = Sequential()
model.add(Embedding(len(word_index) + 1, EMBEDDING_DIM, input_length=MAX_SEQUENCE_LENGTH))
model.add(Dropout(0.2))
model.add(Conv1D(250, 3, padding='valid', activation='relu', strides=1))
model.add(MaxPooling1D(3))
model.add(Flatten())
model.add(Dense(EMBEDDING_DIM, activation='relu'))
model.add(Dense(labels.shape[1], activation='softmax'))
model.summary()

模型長這個樣子


:這里只使用了 1 層卷積層,為什么不多加幾層?
:新聞長度只有100個單詞,即特征只有100維,1 層卷積加池化后特征已經縮減為 32 維,再加卷積可能就卷沒了。 2 層 3 層也做過,效果都不好
:為什么只訓練 2 輪
:因為是遍歷訓練數據不是隨機抽取,1 輪訓練已經接近飽和,實驗表明第 2 輪訓練基本沒什么提升
:為什么卷積核為什么選擇 250 個?
:因為開心

實驗結果如下


準確度 0.81459521
擁有11個分類的問題達到這個準確度,應該也不錯(易滿足)。并且搜狗給的數據本來也不是很好(甩鍋)。可以看到在訓練集上的準確度達到了 0.88,但是測試集上的準確度只有 0.81,說明還是有些過擬合。另外,整個模型需要訓練的參數接近 1500 萬,其中 1300 萬都是 embedding 層的參數,說明如果利用 word2vec 模型替換 embedding 層,解放這 1300 萬參數,肯定會讓訓練效率得到提高

基于預訓練的 word2vec 的 CNN :

參考資料

keras示例程序 pretrained_word_embeddings.py 代碼地址
https://github.com/fchollet/keras/blob/master/examples/pretrained_word_embeddings.py
中文講解地址(在Keras模型中使用預訓練的詞向量)
http://keras-cn.readthedocs.io/en/latest/blog/word_embedding/

既然提到了 word2vec 可能會提高訓練效率,那就用實驗驗證一下。(重點)(重點)(重點)正常的深度學習訓練,比如上面的 CNN 模型,第一層(除去 Input 層)是一個將文本處理成向量的 embedding 層。這里為了使用預訓練的 word2vec 來代替這個 embedding 層,就需要將 embedding 層的 1312 萬個參數用 word2vec 模型中的詞向量替換。替換后的 embedding 矩陣形狀為 65604 x 200,65604 行代表 65604 個單詞,每一行的這長度 200 的行向量對應這個詞在 word2vec 空間中的 200 維向量。最后,設定 embedding 層的參數固定,不參加訓練,這樣就把預訓練的 word2vec 嵌入到了深度學習的模型之中

VECTOR_DIR = 'wiki.zh.vector.bin' # 詞向量模型文件

from keras.utils import plot_model
from keras.layers import Embedding
import gensim

w2v_model = gensim.models.KeyedVectors.load_word2vec_format(VECTOR_DIR, binary=True)
embedding_matrix = np.zeros((len(word_index) + 1, EMBEDDING_DIM))
for word, i in word_index.items(): 
    if unicode(word) in w2v_model:
        embedding_matrix[i] = np.asarray(w2v_model[unicode(word)],
                                         dtype='float32')
embedding_layer = Embedding(len(word_index) + 1,
                            EMBEDDING_DIM,
                            weights=[embedding_matrix],
                            input_length=MAX_SEQUENCE_LENGTH,
                            trainable=False)

模型搭建與剛才類似,就是用嵌入了 word2vec 的 embedding_layer 替換原來的 embedding 層

from keras.layers import Dense, Input, Flatten, Dropout
from keras.layers import Conv1D, MaxPooling1D, Embedding
from keras.models import Sequential

model = Sequential()
model.add(embedding_layer)
model.add(Dropout(0.2))
model.add(Conv1D(250, 3, padding='valid', activation='relu', strides=1))
model.add(MaxPooling1D(3))
model.add(Flatten())
model.add(Dense(EMBEDDING_DIM, activation='relu'))
model.add(Dense(labels.shape[1], activation='softmax'))
model.summary()
#plot_model(model, to_file='model.png',show_shapes=True)
model.compile(loss='categorical_crossentropy',
              optimizer='rmsprop',
              metrics=['acc'])
model.fit(x_train, y_train, validation_data=(x_val, y_val), epochs=2, batch_size=128)
model.save('word_vector_cnn.h5')
print model.evaluate(x_test, y_test)

模型長相跟之前一致,實驗輸出與測試結果如下


準確度 0.85336374
相比不使用 word2vec 的 cnn,過擬合的現象明顯減輕,使準確度得到了提高。并且需要訓練的參數大大減少了,使訓練時間平均每輪減少 20s 左右

2 LSTM

終于到了自然語言處理界的大哥 LSTM 登場,還有點小期待


不使用預訓練的 word2vec 模型的 LSTM:

特征提取以及 embedding 的過程跟 CNN 的實驗一致。接下來的 LSTM 層的功能在最終效果上(或許)可以理解成將一個序列的詞向量壓縮成一個句向量。每個新聞經過 embedding 層后得到一個 100 x 200 的 2 維向量,通過將這 100 個詞向量按前后順序逐個輸入 LSTM 層中,最后輸出一個 1 維的長度 200 的向量,最后一個全連接層將長度收縮到 12

from keras.layers import Dense, Input, Flatten, Dropout
from keras.layers import LSTM, Embedding
from keras.models import Sequential

model = Sequential()
model.add(Embedding(len(word_index) + 1, EMBEDDING_DIM, 
          input_length=MAX_SEQUENCE_LENGTH))
model.add(LSTM(200, dropout=0.2, recurrent_dropout=0.2))
model.add(Dropout(0.2))
model.add(Dense(labels.shape[1], activation='softmax'))
model.summary()

模型長這樣


大哥開動!


準確度** 0.70627138**


并沒有期待中那么美好。。。原因是這點小數據量,并沒有讓 LSTM 發揮出它的優勢。并不能給大哥一個奔馳的草原。。。并不能讓大哥飛起來。。。另外使用 LSTM 需要訓練的參數要比使用 CNN 少很多,但是訓練時間是 CNN 的 2 倍。大哥表示不但飛不動,還飛的很累。。。

基于預訓練的 word2vec 模型:

流程跟上面使用 word2vec 的 CNN 的基本一致,同樣也是用嵌入了 word2vec 的 embedding_layer 替換原始的 embedding 層

from keras.layers import Dense, Input, Flatten, Dropout
from keras.layers import LSTM, Embedding
from keras.models import Sequential

model = Sequential()
model.add(embedding_layer)
model.add(LSTM(200, dropout=0.2, recurrent_dropout=0.2))
model.add(Dropout(0.2))
model.add(Dense(labels.shape[1], activation='softmax'))
model.summary()

準確度 0.82736602
效果好了不少,依然存在過擬合現象,再一次說明了數據量對 LSTM 的重要性,使用預訓練的 word2vec 模型等于間接增加了訓練語料,所以在這次實驗中崩壞的不是很嚴重

3 MLP(多層感知機)

參考資料

keras 示例程序 reuters_mlp.py 代碼地址
https://github.com/fchollet/keras/blob/master/examples/reuters_mlp.py

MLP 是一個結構上很簡單很 naive 的神經網絡。數據的處理流程也跟上面兩個實驗差不多,不過不再將每條新聞處理成 100 x 200 的 2 維向量,而是成為長度 65604 的 1 維向量。65604 代表數據集中所有出現的 65604 個單詞,數據的值用 tf-idf 值填充,整個文檔集成為一個用 17600 x 65604 個 tf-idf 值填充的矩陣,第 i 行 j 列的值表征了第 j 個單詞在第 i 個文檔中的的 tf-idf值(當然這里也可以不用 tf-idf 值,而只是使用 0/1 值填充, 0/1 代表第 j 個單詞在第 i 個文檔中是否出現,但是實驗顯示用 tf-idf 的效果更好)

tokenizer = Tokenizer()
tokenizer.fit_on_texts(all_texts)
sequences = tokenizer.texts_to_sequences(all_texts)
word_index = tokenizer.word_index
print('Found %s unique tokens.' % len(word_index))
data = tokenizer.sequences_to_matrix(sequences, mode='tfidf')
labels = to_categorical(np.asarray(all_labels))

模型很簡單,僅有兩個全連接層組成,將長度 65604 的 1 維向量經過 2 次壓縮成為長度 12 的 1 維向量

from keras.layers import Dense, Dropout
from keras.models import Sequential

model = Sequential()
model.add(Dense(512, input_shape=(len(word_index)+1,), activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(labels.shape[1], activation='softmax'))
model.summary()

準確度 0.86066135
相比 CNN 與 LSTM 的最好成績,并且在訓練集上的準確度已經高達 0.99!這可是 11 分類啊

只是不能像 CNN 與 LSTM 那樣借助預訓練 word2vec 的幫助,加上數據量不大,所以稍微有些過擬合,不過結果依舊很不錯。沒有復雜的 embedding,清新脫俗的傳統感知機模型在這種小數據集的簡單問題上表現非常好(雖然訓練參數已經達到了 3300 萬個,單輪耗時也將近 200s 了)

4 樸素貝葉斯

非深度學習方法這里使用 sklearn 來實踐
首先登場的是樸素貝葉斯。數據處理的過程跟上述的 MLP 是一致的,也是將整個文檔集用 tf-idf 值填充,讓整個文檔集成為一個 17600 x 65604 的 tf-idf 矩陣。這里需要使用 sklearn 的 CountVectorizer 與 TfidfTransformer 函數實現。代碼如下

from sklearn.feature_extraction.text import CountVectorizer, TfidfTransformer   
count_v0= CountVectorizer();  
counts_all = count_v0.fit_transform(all_text);
count_v1= CountVectorizer(vocabulary=count_v0.vocabulary_);  
counts_train = count_v1.fit_transform(train_texts);   
print "the shape of train is "+repr(counts_train.shape)  
count_v2 = CountVectorizer(vocabulary=count_v0.vocabulary_);  
counts_test = count_v2.fit_transform(test_texts);  
print "the shape of test is "+repr(counts_test.shape)  
  
tfidftransformer = TfidfTransformer();    
train_data = tfidftransformer.fit(counts_train).transform(counts_train);
test_data = tfidftransformer.fit(counts_test).transform(counts_test);

這里有一個需要注意的地方,由于訓練集和測試集分開提取特征會導致兩者的特征空間不同,比如訓練集里 “茍” 這個單詞的序號是 1024,但是在測試集里序號就不同了,或者根本就不存在在測試集里。所以這里先用所有文檔共同提取特征(counts_v0),然后利用得到的詞典(counts_v0.vocabulary_)再分別給訓練集和測試集提取特征。然后開始訓練與測試

from sklearn.naive_bayes import MultinomialNB  
from sklearn import metrics
clf = MultinomialNB(alpha = 0.01)   
clf.fit(x_train, y_train);  
preds = clf.predict(x_test);
num = 0
preds = preds.tolist()
for i,pred in enumerate(preds):
    if int(pred) == int(y_test[i]):
        num += 1
print 'precision_score:' + str(float(num) / len(preds))

準確度 0.85430157
這只是一個簡單的樸素貝葉斯方法,準確度高到驚人,果然最簡單的有時候就是最有效的

5 KNN

跟上面基本一致,只是將 MultinomialNB 函數變成 KNeighborsClassifier 函數,直接上結果

from sklearn.neighbors import KNeighborsClassifier  

for x in range(1,15):  
    knnclf = KNeighborsClassifier(n_neighbors=x)
    knnclf.fit(x_train,y_train)  
    preds = knnclf.predict(x_test);
    num = 0
    preds = preds.tolist()
    for i,pred in enumerate(preds):
        if int(pred) == int(y_test[i]):
            num += 1
    print 'K= '+str(x)+', precision_score:' + str(float(num) / len(preds))

K=11時,準確度 0.31961147,非常低,KNN 方法還是不太適合做此類問題

6 SVM

這里 svm 的 kernel 選用了線性核,其他的比如多項式核和高斯核也都試過,效果極差,直接上結果

from sklearn.svm import SVC   
svclf = SVC(kernel = 'linear') 
svclf.fit(x_train,y_train)  
preds = svclf.predict(x_test);  
num = 0
preds = preds.tolist()
for i,pred in enumerate(preds):
    if int(pred) == int(y_test[i]):
        num += 1
print 'precision_score:' + str(float(num) / len(preds))

準確度 0.84435708,還是不錯的,超過 LSTM ,不及 CNN 與 MLP

7 SVM + word2vec 與 doc2vec

這兩個實驗是后期新加入的,畫風比較清奇,是騾是馬溜一圈,就決定拿過來做個實驗一起比較一下

svm + word2vec:

這個實驗的主要思想是這樣:原本每條新聞由若干個詞組成,每個詞在 word2vec 中都有由一個長度 200 的詞向量表示,且這個詞向量的位置是與詞的語義相關聯的。那么對于每一條新聞,將這條新聞中所有的詞的詞向量加和取平均,既能保留句子中所有單詞的語義,又能生成一個蘊含著這句話的綜合語義的“句向量”,再基于這個長度 200 的句向量使用 svm 分類。這個思想看起來很 naive,但是又說不出什么不合理的地方。嘗試一下,代碼與結果如下:

import gensim
import numpy as np
w2v_model = gensim.models.KeyedVectors.load_word2vec_format(VECTOR_DIR, binary=True)
x_train = []
x_test = []
for train_doc in train_docs:
    words = train_doc.split(' ')
    vector = np.zeros(EMBEDDING_DIM)
    word_num = 0
    for word in words:
        if unicode(word) in w2v_model:
            vector += w2v_model[unicode(word)]
            word_num += 1
    if word_num > 0:
        vector = vector/word_num
    x_train.append(vector)
for test_doc in test_docs:
    words = test_doc.split(' ')
    vector = np.zeros(EMBEDDING_DIM)
    word_num = 0
    for word in words:
        if unicode(word) in w2v_model:
            vector += w2v_model[unicode(word)]
            word_num += 1
    if word_num > 0:
        vector = vector/word_num
    x_test.append(vector)

準確度 0.85175763,驚了,這種看似很 naive 的方法竟然取得了非常好的效果。相比于之前所有包括 CNN、LSTM、MLP、SVM 等方法,這種方法有很強的優勢。它不需要特征提取的過程,也不需固定新聞的長度,一個模型訓練好,跨著數據集都能跑。但是也有其缺陷一面,比如忽略詞語的前后關系,并且當句子長度較長時,求和取平均已經無法準確保留語義信息了。但是在短文本分類上的表現還是很亮

svm + doc2vec:

上面 svm + word2vec 的實驗提到當句子很長時,簡單求和取平均已經不能保證原來的語義信息了。偶然發現了 gensim 提供了一個 doc2vec 的模型,直接為文檔量身訓練“句向量”,神奇。具體原理不講了(也不是很懂),直接給出使用方法

import gensim
sentences = gensim.models.doc2vec.TaggedLineDocument('all_contents.txt')
model = gensim.models.Doc2Vec(sentences, size=200, window=5, min_count=5)
model.save('doc2vec.model')
print 'num of docs: ' + str(len(model.docvecs))

all_contents.txt 里是包括訓練文檔與測試文檔在內的所有數據,同樣每行 1 條新聞,由若干個詞組成,詞之間用空格隔開,先使用 gensim 的 TaggedLineDocument 函數預處理下,然后直接使用 Doc2Vec 函數開始訓練,訓練過程很快(可能因為數據少)。然后這所有 21924 篇新聞就變成了 21924 個長度 200 的向量,取出前 17600 個給 SVM 做分類訓練,后 4324 個測試,代碼和結果如下:

import gensim
model = gensim.models.Doc2Vec.load('doc2vec.model')
x_train = []
x_test = []
y_train = train_labels
y_test = test_labels
for idx, docvec in enumerate(model.docvecs):
    if idx < 17600:
        x_train.append(docvec)
    else:
        x_test.append(docvec)
print 'train doc shape: '+str(len(x_train))+' , '+str(len(x_train[0]))
print 'test doc shape: '+str(len(x_test))+' , '+str(len(x_test[0]))

from sklearn.svm import SVC   
svclf = SVC(kernel = 'rbf') 
svclf.fit(x_train,y_train)  
preds = svclf.predict(x_test);  
num = 0
preds = preds.tolist()
for i,pred in enumerate(preds):
    if int(pred) == int(y_test[i]):
        num += 1
print 'precision_score:' + str(float(num) / len(preds))

準確度 0.48126734,慘不忍睹。原因可能就是文檔太短,每個文檔只有不超過 100 個詞,導致對“句向量”的學習不準確,word2vec 模型訓練需要 1G 以上的數據量,這里訓練 doc2vec 模型20000個文檔卻只有 5M 的大小,所以崩壞。這里對 doc2vec 的應用場景有一些疑問,如果我新加入一條新聞想要分類,那么我必須先要把這個新聞加到文檔集里,然后重新對文檔集進行 doc2vec 的訓練,得到這個新新聞的文檔向量,然后由于文檔向量模型變了, svm 分類模型應該也需要重新訓練了。所以需要自底向上把所有模型打破重建才能讓為新文檔分類?那實用性很差啊。也可能我理解有誤,希望是這樣。

總結

短文本分類這個坑終于填完了,共計 12 種機器學習方法以及變形,花了 4 天時間才把這個坑填上。當然機器學習界方法萬千五花八門,無法窮舉,見不多識不廣的我也只能拿我知道的這幾個做個實驗玩一下供以后參考。12 種方法優勢各異,做個總結:

  • 引入預訓練的 word2vec 模型會給訓練帶來好處,具體來說:(1)間接引入外部訓練數據,防止過擬合;(2)減少需要訓練的參數個數,提高訓練效率
  • LSTM 需要訓練的參數個數遠小于 CNN,但訓練時間大于 CNN。CNN 在分類問題的表現上一直很好,無論是圖像還是文本;而想讓 LSTM 優勢得到發揮,首先讓訓練數據量得到保證
  • 將單詞在 word2vec 中的詞向量加和求平均獲得整個句子的語義向量的方法看似 naive 有時真挺奏效,當然僅限于短句子,長度 100 以內應該可以
  • 機器學習方法萬千,具體選擇用什么樣的方法還是要取決于數據集的規模以及問題本身的復雜度,對于復雜程度一般的問題,看似簡單的方法有可能是墜吼地
最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,362評論 6 544
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 99,577評論 3 429
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,486評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,852評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,600評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,944評論 1 328
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,944評論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 43,108評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,652評論 1 336
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,385評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,616評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,111評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,798評論 3 350
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,205評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,537評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,334評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,570評論 2 379

推薦閱讀更多精彩內容