推斷是數(shù)學(xué)領(lǐng)域一個(gè)非常重要的概念。簡(jiǎn)單來(lái)說(shuō), Inference指的是根據(jù)已經(jīng)有的有限的知識(shí),去推測(cè)未知的知識(shí)。而使用貝葉斯概率論的方法進(jìn)行推斷,就被成為Bayesian I...

推斷是數(shù)學(xué)領(lǐng)域一個(gè)非常重要的概念。簡(jiǎn)單來(lái)說(shuō), Inference指的是根據(jù)已經(jīng)有的有限的知識(shí),去推測(cè)未知的知識(shí)。而使用貝葉斯概率論的方法進(jìn)行推斷,就被成為Bayesian I...
好久沒(méi)看的VAE又不太記得了,重新梳理一下思路,在S同學(xué)的指導(dǎo)下,又有了一些新的理解。之前寫(xiě)過(guò)一篇關(guān)于VAE的入門(mén)教程,但是感覺(jué)還不夠簡(jiǎn)練,刪掉重新寫(xiě)一個(gè)哈哈哈。這篇文章主要...
最近在自學(xué)DQN,主要參考了Pytorch 上的這個(gè)DQN教程[https://pytorch.org/tutorials/intermediate/reinforcemen...
最近因?yàn)樯险n的原因,頻繁的使用到了slurm腳本,所以在這邊簡(jiǎn)單記錄一下 基本概念:什么是slurm腳本? Slurm呢是一種腳本語(yǔ)言,它的詳細(xì)文檔呢可以參考這個(gè)Slurm ...
本文重點(diǎn)介紹貝葉斯推斷中的MCMC方法,這是眾多方法中的一個(gè),具體的分類(lèi)可以看圖。基于估計(jì)的呢,是點(diǎn)估計(jì),求出目標(biāo)分布的極值。這里呢多說(shuō)一句,貝葉斯的點(diǎn)估計(jì)是對(duì)后驗(yàn)概率求導(dǎo)(...
本文是學(xué)習(xí)《貝葉斯方法 概率編程與貝葉斯推斷》重點(diǎn)參考了這個(gè)教程[https://docs.pymc.io/en/v3/pymc-examples/examples/gett...
This is a toy example Markov Random Field In this example. we are modeling a voting pre...
那不點(diǎn)個(gè)贊
使用Logstash將數(shù)據(jù)庫(kù)導(dǎo)入Elastic Search唉,生活所迫生活所迫,我又搞這些雜七雜八的啦,不記錄一下也白瞎啦。這篇主要講怎么把數(shù)據(jù)庫(kù)里的數(shù)據(jù)直接導(dǎo)入到elastic search。參考的比較多的是這篇,寫(xiě)的非常好,可是...
最近學(xué)習(xí)了spark 相關(guān)的內(nèi)容,寫(xiě)個(gè)筆記記錄一下自己目前對(duì)于spark的理解,方便以后查閱。在本文的寫(xiě)作過(guò)程中,主要參考了1.寬依賴(lài)與窄依賴(lài)的區(qū)別;2.spark中幾個(gè)概念...
顯示有限的接口到外部 當(dāng)發(fā)布python第三方package時(shí), 并不希望代碼中所有的函數(shù)或者class可以被外部import, 在init.py中添加all屬性, 該lis...
@大長(zhǎng)老_864d 暫時(shí)沒(méi)有,過(guò)段時(shí)間會(huì)集中更新
AllenNLP 使用教程插播一條關(guān)于Allennlp 的庫(kù)的基本用法的介紹 1 安裝 2 基本使用方法 3 實(shí)例教學(xué) 本來(lái)呢是亦步亦趨的跟著官網(wǎng)的教程走的,應(yīng)該先看安裝,然后教怎么使用,怎么實(shí)現(xiàn)自己...
謝謝多交流多交流
attention機(jī)制簡(jiǎn)介最近幾天花了很大的力氣復(fù)現(xiàn)了Attention is All you need的代碼,并且把a(bǔ)ttention 系列的論文看了很多,包括self-attention,co-a...
動(dòng)態(tài)頁(yè)面與靜態(tài)頁(yè)面 比較常見(jiàn)的頁(yè)面形式可以分為兩種: 靜態(tài)頁(yè)面 動(dòng)態(tài)頁(yè)面 靜態(tài)頁(yè)面和動(dòng)態(tài)頁(yè)面的區(qū)別 使用requests進(jìn)行數(shù)據(jù)獲取的時(shí)候一般使用的是respond.text...