目錄
? ? - Motivation:論文想要解決的問題
? ? -?Methodology:本文提出的方法
? ? - experiment:實驗結果
Motivation
- Bert 直接生成的sentence representation(SR) 不能很好的表達句子的語義。(相似的句子距離更近)
- 所以設計網絡來finetune bert,使得可以獲取nice的SR
Methodology
-?SBERT architecture with classification objective function:同時輸入兩個句子,最后使用entropy loss
注:fintune結束后,bert+pooling可作為句子編碼器。
-?SBERT architecture at inference:同時輸入兩個句子,可以使用MSEloss
experiment
- 使用SBERT框架&NLI finetune之后效果比BERT CLS-vector效果好