import matplotlib.pyplot as plt
import numpy as np#构建方程
f = lambda x:(x-3.5)**2-4.5*x+10
#构建导数
g = lambda x:2*(x-3.5)-4.5x = np.linspace(0,11.5,100)#这段代码使用了NumPy库来生成一个线性空间的数组 x 和根据给定的函数 f 计算对应的 y 值。
y = f(x)#可视化
plt.plot(x,y)eta = 0.1#学习率#梯度下降
x = np.random.randint(0,12,size = 1)[0] #生成一个随机整数,【0】获取第一个#每次while循环,记录上一次值,为了比较
last_x = x + 0.1#精确度
precision = 0.0001print('------随机x是',x)#每次梯度下降,求解出的x值,一开始随机给
x_ = [x] #x_ 是一个Python列表,用于存储梯度下降算法在每次迭代中计算出的 x 值。这有助于观察算法的收敛过程。
count = 0while True:if np.abs(x-last_x)<precision: #小于精确度,更新时变化甚微break;#更新梯度下降 #x时当前值,赋值给上一个值last_x = xcount += 1x = x -eta*g(x) #梯度更新,减去学习率*导数x_.append(x)print('*********梯度下降次数',count)#x1是numpy数组
x1 = np.linspace(0,11.5,100)
y1 = f(x1)
plt.plot(x1,y1)x_ = np.array(x_)plt.scatter(x_,f(x_),color = 'red',s = 30)
在这段代码中,x_
被用来记录梯度下降过程中每次迭代的 x
值。以下是 x_
的具体用途和代码中相关部分的解释:
-
记录迭代过程:
x_
是一个Python列表,用于存储梯度下降算法在每次迭代中计算出的x
值。这有助于观察算法的收敛过程。 -
可视化梯度下降路径:在梯度下降算法完成后,
x_
被转换成一个NumPy数组,并使用plt.scatter
函数绘制成散点图。这显示了算法是如何逐步逼近最优解的。 -
散点图表示:
plt.scatter(x_, f(x_), color='red', s=30)
这一行代码在图上绘制了x_
的值对应的函数值f(x_)
。散点图用红色表示,每个点的大小为30。 -
算法收敛性分析:通过观察
x_
列表中x
值的变化,可以分析梯度下降算法的收敛性。如果x
值在迭代过程中变化很小,说明算法可能已经接近或达到最优解。 -
终止条件:
while
循环中的终止条件if np.abs(x-last_x) < precision:
检查当前x
值与上一次迭代的x
值之间的绝对差是否小于预设的精确度precision
。如果是,算法终止,认为已经收敛到最优解。 -
迭代次数记录:变量
count
记录了梯度下降算法迭代的次数,每次迭代都会输出当前的迭代次数,帮助了解算法的迭代过程。