任務(wù) RNN的結(jié)構(gòu)。循環(huán)神經(jīng)網(wǎng)絡(luò)的提出背景、優(yōu)缺點。著重學(xué)習(xí)RNN的反向傳播、RNN出現(xiàn)的問題(梯度問題、長期依賴問題)、BPTT算法。 雙向RNN 遞歸神經(jīng)網(wǎng)絡(luò) LSTM、...

任務(wù) RNN的結(jié)構(gòu)。循環(huán)神經(jīng)網(wǎng)絡(luò)的提出背景、優(yōu)缺點。著重學(xué)習(xí)RNN的反向傳播、RNN出現(xiàn)的問題(梯度問題、長期依賴問題)、BPTT算法。 雙向RNN 遞歸神經(jīng)網(wǎng)絡(luò) LSTM、...
前言 ??一個生物神經(jīng)細胞的功能比較簡單,而人工神經(jīng)元只是生物神經(jīng)細胞的理想化和簡單實現(xiàn),功能更加簡單。要想模擬人腦的能力,單一的神經(jīng)元是遠遠不夠的,需要通過很多神經(jīng)元一起協(xié)...
任務(wù) 前饋神經(jīng)網(wǎng)絡(luò)、網(wǎng)絡(luò)層數(shù)、輸入層、隱藏層、輸出層、隱藏單元、激活函數(shù)的概念。 感知機相關(guān);定義簡單的幾層網(wǎng)絡(luò)(激活函數(shù)sigmoid),遞歸使用鏈式法則來實現(xiàn)反向傳播。 ...
任務(wù) 樸素貝葉斯 樸素貝葉斯的原理 利用樸素貝葉斯模型進行文本分類 SVM模型 SVM的原理 利用SVM模型進行文本分類 LDA主題模型 pLSA、共軛先驗分布 LDA 使用...
IMDB數(shù)據(jù)集下載和探索 根據(jù)TensorFlow官方教程實現(xiàn): THUCNews數(shù)據(jù)集下載和探索 根據(jù)githut進行復(fù)現(xiàn) 對于函數(shù)batch_iter(x, y)的使用還...