實(shí)踐隨筆之初識Tensorflow

TensorFlow是Google推出的深度學(xué)習(xí)框架,相信谷歌出品,必屬精品。養(yǎng)成良好的寫筆記習(xí)慣,好記性不如爛筆頭(* ̄(oo) ̄)
安裝&入門教程
網(wǎng)上一堆安裝和入門教程,以下兩個鏈接都是比較靠譜的。這里只啰嗦一句,window環(huán)境下,TensorFlow只能支持Python3.5以及以上版本!!!
中文官網(wǎng):https://tensorflow.google.cn/
極客學(xué)院:http://wiki.jikexueyuan.com/project/tensorflow-zh/
生成一個最簡單的前饋神經(jīng)網(wǎng)絡(luò)模型
tensorflow官方教程上有一個識別手寫阿拉伯?dāng)?shù)字的例子,采用了卷積神經(jīng)網(wǎng)絡(luò)模型(一般圖像處理都使用卷積神經(jīng)網(wǎng)絡(luò))。但是對于我這個初學(xué)者來說,上來的demo是這個例子,難度略大。所以,使用一個最簡單的前饋神經(jīng)網(wǎng)絡(luò)模型,作為第一個栗子。該模型主要是一個二分類模型。
代碼如下:

importtensorflowastf
fromnumpy.randomimportRandomState
#定義訓(xùn)練數(shù)據(jù)batch的大小
batch_size=8
#生成一個2X3的隨機(jī)矩陣w1,3X1的隨機(jī)矩陣w2,標(biāo)準(zhǔn)差是1,隨機(jī)種子1
w1=tf.Variable(tf.random_normal([2,3],stddev=1,seed=1),name="w1")
w2=tf.Variable(tf.random_normal([3,1],stddev=1,seed=1),name="w2")
#在shape的一個維度上使用None可以方便使用不用的batch大小。在訓(xùn)練時需要把數(shù)據(jù)分成
#比較小的batch,但是在測試時,可以一次性使用全部的數(shù)據(jù)。當(dāng)數(shù)據(jù)集比較小時,這樣比較方便測試
#但是當(dāng)數(shù)據(jù)集比較大時,將大量數(shù)據(jù)放入一個batch可能導(dǎo)致內(nèi)存溢出
x=tf.placeholder(tf.float32,shape=(None,2),name="x-input")
y_=tf.placeholder(tf.float32,shape=(None,1),name="y-input")
#定義神經(jīng)網(wǎng)絡(luò)前向傳播過程 a=x*w1,y=a*w2
a=tf.matmul(x,w1)
y=tf.matmul(a,w2)
#定義損失函數(shù),使用真實(shí)值和預(yù)測值之間的交叉熵
cross_entropy= -tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0)))
#定義反向傳播算法
train_step=tf.train.AdamOptimizer(0.001).minimize(cross_entropy)
#通過隨機(jī)數(shù)生成一個模擬數(shù)據(jù)集
rdm=RandomState(1)
dataset_size=128
X=rdm.rand(dataset_size,2)
#定義規(guī)則來給出樣本的標(biāo)簽。在這里所有x1+x2<1 的樣例都被認(rèn)為是正樣本(比例產(chǎn)品合格),
#而其他為負(fù)樣本(比如零件不合格)。和TensorFlow游樂場中的算法表示法不大一樣的地方是,
#在這里使用0來表示負(fù)樣本,1表示正樣本,大部分解決分類問題的神經(jīng)網(wǎng)絡(luò)都采用0和1的表示方法
Y=[[int(x1+x2<1)]for(x1,x2)inX]
#創(chuàng)建一個會話來運(yùn)行TensorFlow程序,初始化變量
withtf.Session()assess:
init_op=tf.initialize_all_variables()
sess.run(init_op)
#訓(xùn)練之前的參數(shù)值
print(sess.run(w1))
print(sess.run(w2))
STEPS=5000
foriinrange(STEPS):
# 每次選取batch_size個樣本進(jìn)行訓(xùn)練
start=(i*batch_size)%dataset_size
end=min(start+batch_size, dataset_size)
# 通過選取的樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò)并更新參數(shù)
sess.run(train_step,feed_dict={x:X[start:end], y_:Y[start:end]})
ifi%1000==0:
# 每隔一段時間計(jì)算在所有數(shù)據(jù)上的交叉熵并輸出
total_cross_entropy=sess.run(cross_entropy,feed_dict={x:X, y_:Y})
print("After %d training step(s),cross entropy on all data is %g",(i, total_cross_entropy))
#訓(xùn)練之后的參數(shù)值
print(sess.run(w1))
print(sess.run(w2))
#導(dǎo)出計(jì)算圖
writer=tf.summary.FileWriter("E://workspace/tensorflow",tf.get_default_graph())
writer.close()

Tensorboard
Tensorboard是TensorFlow自帶的一個強(qiáng)大的可視化工具。有多強(qiáng)大?可以看到,上述代碼最后兩句就是到處該模型的計(jì)算圖。我們看看效果是怎么樣的。
**啟動tensorboard: **tensorboard --logdir=E://workspace/tensorflow,這個路徑是你上述代碼到處的路徑。啟動結(jié)果如下:


運(yùn)行結(jié)果如下:


最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
平臺聲明:文章內(nèi)容(如有圖片或視頻亦包括在內(nèi))由作者上傳并發(fā)布,文章內(nèi)容僅代表作者本人觀點(diǎn),簡書系信息發(fā)布平臺,僅提供信息存儲服務(wù)。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 230,321評論 6 543
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī),發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 99,559評論 3 429
  • 文/潘曉璐 我一進(jìn)店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事?!?“怎么了?”我有些...
    開封第一講書人閱讀 178,442評論 0 383
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經(jīng)常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,835評論 1 317
  • 正文 為了忘掉前任,我火速辦了婚禮,結(jié)果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當(dāng)我...
    茶點(diǎn)故事閱讀 72,581評論 6 412
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上,一...
    開封第一講書人閱讀 55,922評論 1 328
  • 那天,我揣著相機(jī)與錄音,去河邊找鬼。 笑死,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,931評論 3 447
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 43,096評論 0 290
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體,經(jīng)...
    沈念sama閱讀 49,639評論 1 336
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 41,374評論 3 358
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了。 大學(xué)時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片。...
    茶點(diǎn)故事閱讀 43,591評論 1 374
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 39,104評論 5 364
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 44,789評論 3 349
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 35,196評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監(jiān)牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,524評論 1 295
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 52,322評論 3 400
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 48,554評論 2 379

推薦閱讀更多精彩內(nèi)容