import numpy as np
import matplotlib.pyplot as plt
x_data = [338,333,328,207,226,25,179,60,208,606]
y_data = [640,633,619,393,428,27,193,66,226,1591]
x = np.arange(-200,100,1)#bias
y = np.arange(-5,5,0.1)#weight
z = np.zeros((len(x),len(y)))
x,y = np.meshgrid(x,y)
# for i in range(len(x)-1):
# for j in range(len(y)-1):
# b = x[i]
# w = y[j]
# for n in range(len(x_data)):
# z[i][j] = z[i][j] + (y_data[n] - b - w * x_data[n])**2
#
# z[j][i] = z[j][i]/len(x_data)
b = 120
w = -4
lr = 1
iteration = 100000
b_history = [b]
w_history = [w]
lr_b=0
lr_w=0
for i in range(iteration):
b_gard = 0.0
w_gard = 0.0
for n in range(len(x_data)):
b_gard = b_gard - 2.0 * (y_data[n] - b - w*x_data[n])*1.0
w_gard = w_gard - 2.0 * (y_data[n] - b - w * x_data[n]) * x_data[n]
lr_b = lr_b + b_gard**2
lr_w = lr_w + w_gard ** 2
b = b - lr/np.sqrt(lr_b) * b_gard
w = w - lr/np.sqrt(lr_w) * w_gard
b_history.append(b)
w_history.append(w)
#plt.contourf(x,y,z,50,alpha)
plt.plot([-188.4],[2.67],'x',ms=12,markeredgewidth=3,color='orange')
plt.plot(b_history,w_history,'o-',ms=3,lw=1.5,color='black')
plt.xlim(-200,1100)
plt.ylim(-5,5)
plt.xlabel(r'$b$',fontsize=16)
plt.ylabel(r'$w$',fontsize=16)
plt.show()
Gradient Descent入門
?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
推薦閱讀更多精彩內容
- [機器學習入門] 李宏毅機器學習筆記-3 (Gradient Descent ;梯度下降) Review 梯度下降...
- 在所有的教程中,不管是網上的資料還是書籍上。都說,想要學會ajax,需要提前學會html+css+javascri...
- 1.回顧 Debian,Slackware,Redhat Debian: Ubuntu Knopix Slackw...
- 1. 硬盤大小 120G ISO鏡像: 硬盤分區:留出一些空間: 實在不成, 可安裝完成以后,新增一塊虛擬硬盤: ...
- #靜靜地練字# 墨銘奇妙獨家首發 入門大全 你的入門選對了嗎? 本文:約10+K字 建議閱讀時間:收藏以后細細品味...