您的位置:首页 > 教育 > 培训 > 24/8/13算法笔记 复习_梯度下降

24/8/13算法笔记 复习_梯度下降

2025/5/10 16:17:17 来源:https://blog.csdn.net/yyyy2711/article/details/141171481  浏览:    关键词:24/8/13算法笔记 复习_梯度下降

import matplotlib.pyplot as plt
import numpy as np#构建方程
f = lambda x:(x-3.5)**2-4.5*x+10
#构建导数
g = lambda x:2*(x-3.5)-4.5x = np.linspace(0,11.5,100)#这段代码使用了NumPy库来生成一个线性空间的数组 x 和根据给定的函数 f 计算对应的 y 值。
y = f(x)#可视化
plt.plot(x,y)eta = 0.1#学习率#梯度下降
x = np.random.randint(0,12,size = 1)[0]  #生成一个随机整数,【0】获取第一个#每次while循环,记录上一次值,为了比较
last_x = x + 0.1#精确度
precision = 0.0001print('------随机x是',x)#每次梯度下降,求解出的x值,一开始随机给
x_ = [x]     #x_ 是一个Python列表,用于存储梯度下降算法在每次迭代中计算出的 x 值。这有助于观察算法的收敛过程。
count = 0while True:if np.abs(x-last_x)<precision: #小于精确度,更新时变化甚微break;#更新梯度下降 #x时当前值,赋值给上一个值last_x = xcount += 1x = x -eta*g(x) #梯度更新,减去学习率*导数x_.append(x)print('*********梯度下降次数',count)#x1是numpy数组
x1 = np.linspace(0,11.5,100)
y1 = f(x1)
plt.plot(x1,y1)x_ = np.array(x_)plt.scatter(x_,f(x_),color = 'red',s = 30)

在这段代码中,x_ 被用来记录梯度下降过程中每次迭代的 x 值。以下是 x_ 的具体用途和代码中相关部分的解释:

  1. 记录迭代过程x_ 是一个Python列表,用于存储梯度下降算法在每次迭代中计算出的 x 值。这有助于观察算法的收敛过程。

  2. 可视化梯度下降路径:在梯度下降算法完成后,x_ 被转换成一个NumPy数组,并使用 plt.scatter 函数绘制成散点图。这显示了算法是如何逐步逼近最优解的。

  3. 散点图表示plt.scatter(x_, f(x_), color='red', s=30) 这一行代码在图上绘制了 x_ 的值对应的函数值 f(x_)。散点图用红色表示,每个点的大小为30。

  4. 算法收敛性分析:通过观察 x_ 列表中 x 值的变化,可以分析梯度下降算法的收敛性。如果 x 值在迭代过程中变化很小,说明算法可能已经接近或达到最优解。

  5. 终止条件while 循环中的终止条件 if np.abs(x-last_x) < precision: 检查当前 x 值与上一次迭代的 x 值之间的绝对差是否小于预设的精确度 precision。如果是,算法终止,认为已经收敛到最优解。

  6. 迭代次数记录:变量 count 记录了梯度下降算法迭代的次数,每次迭代都会输出当前的迭代次数,帮助了解算法的迭代过程。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com