#SGD

梯度下降法(Gradient descent)是一个一阶最优化算法,通常也称最速下降法。要使用梯度下降法找到一个函数的局部极小值,必须向函数上当前点对应梯度(或者是近似梯度)的反方向的规定步长距离点进行迭代搜索。如果相反地向梯度正方向迭代进行搜索,则会接近函数的局部极大值点,这个过程被称为梯度上升法

阅读更多

Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×