Transformer 到 BERT:文章收集今天看了幾篇簡(jiǎn)直炸裂的文章,之前火的要死的 transformer 終于搞懂了(尤其是在 Bert問(wèn)世之后),感覺(jué)學(xué)會(huì)了很多東西,下面分享鏈接。 放棄幻想,全面擁抱Trans...

Transformer 到 BERT:文章收集今天看了幾篇簡(jiǎn)直炸裂的文章,之前火的要死的 transformer 終于搞懂了(尤其是在 Bert問(wèn)世之后),感覺(jué)學(xué)會(huì)了很多東西,下面分享鏈接。 放棄幻想,全面擁抱Trans...
@Clever00 不客氣~
matplotlib 學(xué)習(xí)筆記(3): subplot and subplots寫(xiě)了兩篇 matplotlib, 感覺(jué)這個(gè)庫(kù)里面,函數(shù)還真是有點(diǎn)多,,,不知何年何月給寫(xiě)完,或者半道撂翹子,,,算了,不管那么多,先把自己常用的寫(xiě)一寫(xiě)吧 ~ 目錄:matpl...
這里面就放一些看過(guò)的好的博客或者零散的知識(shí)點(diǎn)~ 淺談多線(xiàn)程多進(jìn)程的選擇 三次握手,四次揮手 約瑟夫環(huán)問(wèn)題詳解 人人都能懂的量子理論 知乎:如何通俗易懂地講解牛頓迭代法求開(kāi)方?...
目錄:機(jī)器學(xué)習(xí)常見(jiàn)面試問(wèn)題匯總問(wèn)題匯總(1):邏輯回歸問(wèn)題匯總(2):支持向量機(jī)問(wèn)題匯總(3):樹(shù)模型問(wèn)題匯總(4):聚類(lèi)問(wèn)題匯總(5):神經(jīng)網(wǎng)絡(luò)問(wèn)題匯總(6):EM算法問(wèn)題...
先隨便寫(xiě)一些,方便自己隨時(shí)復(fù)習(xí)查看~ 首先先來(lái)了解一下RNN以及LSTM~ RNN、LSTM簡(jiǎn)介(說(shuō)實(shí)話(huà),這篇文章講的不賴(lài)~) 接下來(lái)看一看Seq2seq 和 Attenti...
驚為天人的解答。。。。 Given a string and a string dictionary, find the longest string in the dict...
按位操作是真的復(fù)雜,且技巧性很高,特此專(zhuān)門(mén)開(kāi)一篇,來(lái)簡(jiǎn)單講解。 目錄:算法:附錄算法(1):遞歸算法(2):鏈表算法(3):數(shù)組算法(4):字符串算法(5):二叉樹(shù)算法(6)...
@Meredith_8684 謝謝小苗啦~
算法(2):鏈表??終于開(kāi)始提筆寫(xiě)算法(2)了,我先為自己鼓個(gè)小手,然后決定,這一波寫(xiě)個(gè)常見(jiàn)的數(shù)據(jù)結(jié)構(gòu),鏈表,還望各位小伙伴多多支持,有簡(jiǎn)書(shū)號(hào)的就幫忙捧個(gè)人場(chǎng),點(diǎn)個(gè)贊留個(gè)言啥的,你們的關(guān)注就...
今天補(bǔ)一下回溯法,別的不說(shuō),n皇后問(wèn)題必須列出來(lái)才行~ 目錄:算法:附錄算法(1):遞歸算法(2):鏈表算法(3):數(shù)組算法(4):字符串算法(5):二叉樹(shù)算法(6):二叉查...
那啥,cv領(lǐng)域的也寫(xiě)一些把~ 卷積,反卷積,以及 feature map 的計(jì)算 W:矩陣寬,H:矩陣高,F(xiàn):卷積核寬和高,P:padding(需要填充的0的個(gè)數(shù)),N:卷積...
這個(gè)東西也是得好好搞清楚才行~ 目錄:機(jī)器學(xué)習(xí)常見(jiàn)面試問(wèn)題匯總問(wèn)題匯總(1):邏輯回歸問(wèn)題匯總(2):支持向量機(jī)問(wèn)題匯總(3):樹(shù)模型問(wèn)題匯總(4):聚類(lèi)問(wèn)題匯總(5):神經(jīng)...
這個(gè)現(xiàn)學(xué)現(xiàn)賣(mài)把,先把鏈接放上來(lái): 目錄:機(jī)器學(xué)習(xí)常見(jiàn)面試問(wèn)題匯總問(wèn)題匯總(1):邏輯回歸問(wèn)題匯總(2):支持向量機(jī)問(wèn)題匯總(3):樹(shù)模型問(wèn)題匯總(4):聚類(lèi)問(wèn)題匯總(5):神...
xgboost 已然火爆機(jī)器學(xué)習(xí)圈,相信不少朋友都使用過(guò)。要想徹底掌握xgboost,就必須搞懂其內(nèi)部的模型原理。這樣才能將各個(gè)參數(shù)對(duì)應(yīng)到模型內(nèi)部,進(jìn)而理解參數(shù)的含義,根據(jù)需...