博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
梯度下降算法结束条件
阅读量:2080 次
发布时间:2019-04-29

本文共 447 字,大约阅读时间需要 1 分钟。

梯度的方向总是函数值越来越大的方向,如果是求极大值,沿着梯度的方向迭代接口;如果是求极小值,沿着梯度相反的方向迭代即可,即梯度下降法。

梯度下降法(梯度上升法应该也适用)迭代结束的条件,常用的有两种:

一、定义一个合理的阈值,当两次迭代之间的差值小于该阈值时,迭代结束。

二、设置一个大概的迭代步数,比如1000或500,梯度下降法最终的迭代肯定会收敛,只要达到相应迭代次数,多了也没关系。因为迭代次数多了后,在

到达极值点时,函数对变量的导数已近乎为0,即使过了极值点,导数就变为正数了,之前的导数为负数。这个时候,变量x的值减去步长与导数的乘

积反倒变小了。所以即使步数多了,结果也基本上就在极值点处左右徘徊,几乎等于极值点,因此没有问题。

--------------------- 
作者:hyg1985 
来源:CSDN 
原文:https://blog.csdn.net/hyg1985/article/details/42556847 
版权声明:本文为博主原创文章,转载请附上博文链接!

你可能感兴趣的文章
用 Pipeline 将训练集参数重复应用到测试集
查看>>
PCA 的数学原理和可视化效果
查看>>
机器学习中常用评估指标汇总
查看>>
什么是 ROC AUC
查看>>
Bagging 简述
查看>>
详解 Stacking 的 python 实现
查看>>
简述极大似然估计
查看>>
用线性判别分析 LDA 降维
查看>>
用 Doc2Vec 得到文档/段落/句子的向量表达
查看>>
使聊天机器人具有个性
查看>>
使聊天机器人的对话更有营养
查看>>
一个 tflearn 情感分析小例子
查看>>
attention 机制入门
查看>>
手把手用 IntelliJ IDEA 和 SBT 创建 scala 项目
查看>>
GAN 的 keras 实现
查看>>
AI 在 marketing 上的应用
查看>>
Logistic regression 为什么用 sigmoid ?
查看>>
Logistic Regression 为什么用极大似然函数
查看>>
为什么在优化算法中使用指数加权平均
查看>>
Java集合详解1:一文读懂ArrayList,Vector与Stack使用方法和实现原理
查看>>