梯度下降法 8 个月前 Deep Learning 11 分钟 读完 (约 1689 字) 梯度下降法(Gradient descent)是一个一阶最优化算法,通常也称最速下降法。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点,这个过程被称为梯度上升法。 阅读更多