當(dāng)Intellij IDEA升級到2020.3版本時(shí),如果你的項(xiàng)目恰恰使用了Lombok,那么恭喜你,十有八九會中招,在編譯的時(shí)候產(chǎn)生如下錯(cuò)誤: java: You aren...

當(dāng)Intellij IDEA升級到2020.3版本時(shí),如果你的項(xiàng)目恰恰使用了Lombok,那么恭喜你,十有八九會中招,在編譯的時(shí)候產(chǎn)生如下錯(cuò)誤: java: You aren...
本文主要用于介紹曠世于2017年提出的一種輕型網(wǎng)絡(luò)ShuffleNet。本筆記主要為方便初學(xué)者快速入門,以及自我回顧。 論文鏈接:https://arxiv.org/pdf/...
在NLP領(lǐng)域,在神經(jīng)網(wǎng)絡(luò)興起之前,條件隨機(jī)場(CRF)一直是作為主力模型的存在,就算是在RNN系(包括BERT系)的模型興起之后,也通常會在模型的最后添加一個(gè)CRF層,以提高...
本文主要用于記錄谷歌發(fā)表于2019年的一篇論文。該論文提出的XLNet模型在19年再一次屠榜了之前由Bert模型刷爆的多項(xiàng)NLP基礎(chǔ)任務(wù),號稱新一代NLP領(lǐng)域的基準(zhǔn)預(yù)訓(xùn)練模型...
看過 TensorFlow-slim 訓(xùn)練 CNN 分類模型(續(xù)) 及其相關(guān)系列文章的讀者應(yīng)該已經(jīng)感受到了 tf.contrib.slim 在訓(xùn)練卷積神經(jīng)網(wǎng)絡(luò)方面的極其方便之...
本文將實(shí)現(xiàn) deeplab v3 + 模型(參考:DeepLab 官方開源代碼)
本文主要用于理解數(shù)據(jù)平滑的原理,并且重點(diǎn)介紹了幾種數(shù)據(jù)平滑的方法~ 基本目錄如下: 數(shù)據(jù)平滑的本質(zhì)理解1.1 為什么需要數(shù)據(jù)平滑? 數(shù)據(jù)平滑的方法2.1 加法平滑方法2.2 ...
本文主要用于理解樸素貝葉斯模型的原理,并且通過對實(shí)際案例的剖析來加深大家的理解。 基本目錄如下: 先導(dǎo)數(shù)學(xué)知識1.1 條件概率1.2 貝葉斯定理1.3 條件獨(dú)立 樸素貝葉斯模...
本文主要用于記錄華盛頓大學(xué)發(fā)表于2015年的一篇論文(引用量500+),該論文主要提出了一種計(jì)算文本(語句)相似度的方法論,很多神經(jīng)網(wǎng)絡(luò)模型也是由此衍生出來的~本筆記主要用于...