前言 今天開始聊一聊python3的asyncio。關于asyncio,大家肯定都有自己的理解,并且網(wǎng)上大神也把基礎概念也解釋的比較透徹。本文寫作的初衷,主要是理解async...

前言 今天開始聊一聊python3的asyncio。關于asyncio,大家肯定都有自己的理解,并且網(wǎng)上大神也把基礎概念也解釋的比較透徹。本文寫作的初衷,主要是理解async...
我們在connect時常常遇到connection timeout這種錯誤, 如果你仔細去觀察,會發(fā)現(xiàn)connect timout分兩種情況, 另外一種是: 那這兩種 tim...
我覺得這是我看過邏輯最好的一個
三、區(qū)塊鏈的技術原理—區(qū)塊的組成這一篇我們介紹“區(qū)塊”的“五臟六腑”,也就是它的詳細組成,如圖 看不懂沒關系,對著這張圖我給大家一一剖析。 首先,每一個區(qū)塊都有一個父區(qū)塊和子區(qū)塊,分別對應圖中的左邊的“父區(qū)...
這一篇我們介紹“區(qū)塊”的“五臟六腑”,也就是它的詳細組成,如圖 看不懂沒關系,對著這張圖我給大家一一剖析。 首先,每一個區(qū)塊都有一個父區(qū)塊和子區(qū)塊,分別對應圖中的左邊的“父區(qū)...
測試了一下發(fā)現(xiàn)聯(lián)邦學習方式建模和單機直接訓練的結果差異很大,以下敘述具體的測試流程。 測試數(shù)據(jù)集是這樣的: 首先嘗試單機,使用最傳統(tǒng)的邏輯回歸進行訓練,編寫腳本如下: 運行結...
本文轉載自我的個人博客。 前幾天我的個人網(wǎng)站終于部署上線了,趁現(xiàn)在還記得,趕緊把流程記錄下來。本文講的是前后端分離的項目的服務器部署,這里就以我的個人網(wǎng)站為例子。我的個人網(wǎng)站...
筆者目前使用的jdk版本是1.6.0_29,Eclipse版本是Juno Release,Build id 20120614-1722。如無特殊說明,本文所有的Java代碼都...
因為tensorflow現(xiàn)有版本暫時不適配CUDA10.2,而通常服務器或者帶有顯卡的PC不會因為一個項目而更換整個CUDA版本。為了解決這個問題,Tensorflow官方開...
問題描述 在將一個字典數(shù)據(jù)寫入json文件時,遇到標題錯誤 問題分析 打印錯誤數(shù)據(jù)的數(shù)據(jù)類型type(),發(fā)現(xiàn)數(shù)據(jù)的類型為numpy.float32,python的內(nèi)置類型f...
Triplet Loss是深度學習中的一種損失函數(shù),用于訓練差異性較小的樣本,如人臉等, Feed數(shù)據(jù)包括錨(Anchor)示例、正(Positive)示例、負(Negati...
本文通過一個例子實驗來觀察并講解PyTorch中model.modules(), model.named_modules(), model.children(), model...
前記 該論文是哈工大發(fā)表的一個中文問答匹配數(shù)據(jù)集的論文,對于整個中文問答匹配的知識背景、方法、數(shù)據(jù)集構建方式等都有一些描述,該數(shù)據(jù)集被廣泛應用在一些中文語義匹配的評測中,比如...
更多來自于GitHub:Reflection_Summary. Bert的雙向體現(xiàn)在什么地方? mask+attention,mask的word結合全部其他encoder w...
圖像直方圖 tutorial_py_histogram 直方圖是對圖像像素的統(tǒng)計分布,它統(tǒng)計了每個像素(0到L-1)的數(shù)量。直方圖均衡化就是將原始的直方圖拉伸,使之均勻分布在...
不管是Tensorboard還是保存最好的模型,都需要用到Keras的一個重要模塊: keras.callbacks 比如Tensorboard是: keras.callba...