TensorFlow、xgboost安裝(Win7、Win10-64bit)

電腦環境:Windows7-64bit、Anaconda3-4.2.0(對應的python版本是3.5.2),如果您安裝的是3.6版本的,選擇下載對應版本的TensorFlow和xgboost即可。

Win10系統也可以參照此方法安裝,已經經過測試了,可放心。

Anaconda下載鏈接為:https://repo.continuum.io/archive/

Tensorflow和xgboost的whl文件下載鏈接為:http://www.lfd.uci.edu/~gohlke/pythonlibs/

1、拷貝tensorflow-1.3.0-cp35-cp35m-win_amd64.whl、xgboost-0.6-cp35-cp35m-win_amd64.whl文件到Anaconda安裝目錄的Lib/site-packages

2、在所有程序中打開Anaconda3下的Anaconda Prompt

3、輸入pip install --upgrade whl文件對應的路徑(注意:要加上--upgrade,這樣會自動安裝TensorFlow、XGBoost需要的其他庫,不然的話,可能會導致安裝不成功。)

如果安裝不成功的話,可以QQ聯系我,我的QQ是980698552。

在Pycharm中編寫程序,可以正確導入tensorflow和xgboost。

# coding: utf-8
import tensorflow as tf
import xgboost as xgb
from numpy.random import RandomState

batch_size = 8
w1 = tf.Variable(tf.random_normal([2,3], stddev=1, seed=1))
w2 = tf.Variable(tf.random_normal([3,1], stddev=1, seed=1))

x = tf.placeholder(tf.float32,shape=(None,2), name="x-input")
y_ = tf.placeholder(tf.float32,shape=(None,1), name="y-input")

a = tf.matmul(x,w1)
y = tf.matmul(a,w2)

cross_entropy =  -tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0)))
train_step = tf.train.AdamOptimizer(0.001).minimize(cross_entropy)

rdm = RandomState(1)
dataset_size = 128

X = rdm.rand(dataset_size,2)
Y = [[int(x1+x2<1)] for (x1, x2) in X]

with tf.Session() as sess:
    init_op = tf.initialize_all_variables()
    sess.run(init_op)
    print(sess.run(w1))
    print(sess.run(w2))

    STEPS = 5000
    for i in range(STEPS):
        start = (i*batch_size) % dataset_size
        end = min(start + batch_size, dataset_size)
        sess.run(train_step, feed_dict={x: X[start:end], y_:Y[start:end]})
        if i%1000==0:
            total_cross_entropy = sess.run(cross_entropy, feed_dict = {x:X,y_:Y})
            print("After %d trainingstep(s), cross entropy on all data is %g" % (i, total_cross_entropy))

    print(sess.run(w1))
    print(sess.run(w2))

最后編輯于
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。

推薦閱讀更多精彩內容