BERT

2018年,對于NLP領域來說是最讓人激動的一年。先后誕生的ELMo、GPT、BERT在預訓練語言模型方面的成功給NLP領域的研究帶來了新的姿勢。特別是BERT(Bidirectional Encoder Representations from Transformers),在11項自然語言任務上刷新了最好成績,同時BERT論文《BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding》獲得NLP領域頂會NAACL 2019的最佳論文獎。

BERT拋棄了傳統的RNN和CNN,主要結構是多層Transformer,其中Self Attention機制將任意位置的兩個詞之間距離轉換成1,有效解決了長期依賴問題。

原論文中提到兩種不同規模的BERT:BERTbase 和BERT large。其中,base版本有12個隱藏層,768個隱層單元,每個Attention有12個頭,參數量達到110M;large版本有24個隱藏層,1024個隱藏層,每個Attention有16個頭,參數量更是達到了340M。其網絡結構如下圖所示:

1.png

與之前的預訓練模型一樣,BERT也分兩個階段: pre-training和fine-tuning。

2.png

pre-training

BERT采用兩種無監督任務來做預訓練,一個是token-level的Masked Language Model,另一個是sentence-level的Next sentence Prediction。兩個任務同時進行,因此BERT的損失函數是兩者損失函數疊加。

1、Masked Language Model

在說MLM之前,我們需要意識到一個問題。語言模型如果使用雙向的,會出現數據泄露問題。也就是說,模型可以間接知道要預測的詞。這也是ELMo使用兩個獨立的雙向模型的原因。

MLM的提出正是為了解決這個問題,具體做法是隨機遮蔽輸入序列中15%的單詞作為訓練樣本:

  • 80%用[MASK]代替;
  • 10%用隨機詞代替;
  • 10%保持不變;

這里只有15%的詞被遮蔽原因是性能開銷,雙向編碼器比單向編碼器訓練要慢。只選其中的80%做mask,是因為mask標記只存在于預訓練階段,在下游任務中輸入并沒有mask。10%用隨機詞,10%保持不變,原因是讓編碼器不知道哪些詞需要預測,哪些詞是錯誤的,因此被迫需要學習每一個詞的表示向量。

2、Next Sentence Prediction

預訓練一個二分類模型來學習句子之間的關系,預測下一個句子的方法對學習句子間關系很有幫助。具體做法:正樣本,給定句子A和B,其中B是A在實際語境中的下一句; 負樣本,句子B是語料庫中隨機選擇的。通過兩個特定的token [CLS]和[SEP]來串接兩個句子。 正負樣本各占一半。

3.png

輸入

BERT的輸入編碼向量(長度512)是由三個特征向量疊加的。

4.png
1、Input Embeddings

每個輸入序列的第一個token [CLS]專門用來分類,利用此位置的最后輸出作為分類任務的輸入embedding。在預訓練時,[CLS]不參與mask,因而該位置面向整個序列的所有position做attention,[CLS]位置的輸出足夠表達整個句子的信息,類似一個global feature。單詞token對應的embedding更關注該token的語義語法及上下文信息表達,類似一個local feature。

2、Position Embeddings

由于transformer無法獲得字的位置信息,BERT也加入了絕對位置編碼,但和transformer不同的是:transformer的位置編碼是通過sin和cos構造出來的,這里Position Embeddings直接采用類似word embedding的方式直接獲得位置編碼。

3、Segment Embeddings

在預訓練的句子對預測任務及問答、相似匹配等任務中,需要對前后句子做區分。將句對輸入同一序列,以特殊標記 [SEP] 分割,同時對第一個句子的每個token添加Sentence A Embedding;第二個句子添加Sentence B Embedding,實驗中讓EA=1,EB=0。

Fine-tune

5.png

針對不同任務,BERT采用不同部分的輸出做預測。由上圖可以知道,BERT有兩種輸出:Pooler output(對應[CLS]位置的輸出)和 Sequence output(對應的是序列中所有詞的最后一層hidden輸出)。

1、分類/回歸任務(利用Pooler output)
  • Single sentence Classification tasks,例如:文本分類,我想聽音樂,分到音樂這個domain);
  • Sentence Pair Classification tasks,例如:自然語言推斷任務(NLI),給定前提,推斷假設是否成立;
  • 回歸任務,回歸其實是分類的一種特殊形式,最后輸出的是一個數值而不是具體的某個類別概率;例如:文本相似度,可以判斷兩個句子是不是類似,得到的具體分數。
2、序列任務(利用Sequence output)
  • 命名實體識別(NER);
  • 完形填空(Cloze task),其實這就是BERT預訓練的一種任務;
  • SQuAD(Standford Question Answering Dataset)task,SQuAD任務輸入是D、Q,其實D是該篇文章,Q是問題,返回的結果是答案開始詞的位置s和結束詞的位置e;

Experiments

說了這么多,我們來看看當初霸榜的BERT與先前的模型對比成績到底如何:

6.png

最后

BERT采用Pre-training和Fine-tuning兩階段訓練任務,在Pre-training階段使用多層雙向transformer,并采用Masked LM 和 Next Sentence Prediction兩種訓練任務解決token-level和sentence-level問題,為下游任務提供了一個通用模型框架。

在NLP領域,BERT具有里程碑意義,對后續的研究產生了深遠影響。

但是我們站在當前時間點回頭看,BERT自身也存在一些缺點,后續文章中會介紹到BER的缺點和優化。

參考:

https://arxiv.org/abs/1810.04805

https://zhuanlan.zhihu.com/p/48612853

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,237評論 6 537
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,957評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,248評論 0 382
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,356評論 1 316
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,081評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,485評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,534評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,720評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,263評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 41,025評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,204評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,787評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,461評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,874評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,105評論 1 289
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,945評論 3 395
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,205評論 2 375

推薦閱讀更多精彩內容