文章地址:https://arxiv.org/pdf/1602.07416v2.pdf
文章的作者來自于清華的Chongxuan Li,Jun Zhu和Bo Zhang。
這篇文章的核心內容是想在Deep Generative Model(DGM)的基礎上加上Memory機制。Motivation的點是,傳統的DGM比較能夠抓住數據的High-level Feature。但是利用這些High Level Feature,還是不能很好得產生實際的數據。作者們認為,部分原因是因為缺少機制能夠把一些細節給記下來。這篇文章就是想能否利用Memory,外加Attention的機制,使得數據的部分細節能夠在每一層得到保存。
作者們在傳統的DGM層與層之間加入了Memory和Attention機制。具體來說,就是每一層的單一Hidden Layer,被兩個不同的Hidden Layer所替代。模型首先從Input Layer產生H1,然后利用一個每一層特有的Memory外加每一層特有的Attention,產生一個H2。最后的輸出H,是這兩個H1和H2的一個函數。
學習過程來講,文章主要還是擴展了Variational Approximation的方法。
從實驗效果來說,特別是隨機產生數據,提出的模型明顯能夠產生更加真實的數據。
更多關于聊天機器人(Chatbots)的技術和產品的分享可以關注ChatbotsChina微博,每日都會有干活分享!