optimization

时间:2021-06-14 13:09:17
【文件属性】:

文件名称:optimization

文件大小:1KB

文件格式:ZIP

更新时间:2021-06-14 13:09:17

optimization

梯度下降是迭代法的一种,可以用于求解最小二乘问题(线性和非线性都可以)。在求解机器学习算法的模型参数,即无约束优化问题时,梯度下降(Gradient Descent)是最常采用的方法之一,另一种常用的方法是最小二乘法。在求解损失函数的最小值时,可以通过梯度下降法来一步步的迭代求解,得到最小化的损失函数和模型参数值。反过来,如果我们需要求解损失函数的最大值,这时就需要用梯度上升法来迭代了。在机器学习中,基于基本的梯度下降法发展了两种梯度下降方法,分别为随机梯度下降法和批量梯度下降法。


【文件预览】:
最速下降法
----gfun.m(42B)
----fun.m(48B)
----zuisuxiajiang.m(75B)
----grad.m(264B)

网友评论

相关文章